### Teaching

In my previous post I illustrated why it is not possible to compute the Jordan canonical form numerically (i.e. in floating point numbers). The simple reason: For every matrix ${A}$ and every ${\epsilon>0}$ there is a matrix ${A_{\epsilon}}$ which differs from ${A}$ by at most ${\epsilon}$ (e.g. in every entry – but all norms for matrices are equivalent, so this does not really play a role) such that ${A_{\epsilon}}$ is diagonalizable. So why should you bother about computing the Jordan canonical form anyway? Or even learning or teaching it? Well, the prime application of the Jordan canonical form is to calculate solutions of linear systems of ODEs. The equation

$\displaystyle y'(t) = Ay(t),\quad y(0) = y_{0}$

with matrix ${A\in {\mathbb R}^{n\times n}}$ and initial value ${y_{0}\in{\mathbb R}^{n}}$ (both could also be complex). This system has a unique solution which can be given explicitly with the help of the matrix exponential as

$\displaystyle y(t) = \exp(At)y_{0}$

where the matrix exponential is

$\displaystyle \exp(At) = \sum_{k=0}^{\infty}\frac{A^{k}t^{k}}{k!}.$

It is not always simple to work out the matrix exponential by hand. The straightforward way would be to calculate all the powers of ${A}$, weight them by ${1/k!}$ and sum the series. This may be a challenge, even for simple matrices. My favorite example is the matrix

$\displaystyle A = \begin{bmatrix} 0 & 1\\ 1 & 1 \end{bmatrix}.$

Its first powers are

$\displaystyle A^{2} = \begin{bmatrix} 1 & 1\\ 1 & 2 \end{bmatrix},\quad A^{3} = \begin{bmatrix} 1 & 2\\ 2 & 3 \end{bmatrix}$

$\displaystyle A^{4} = \begin{bmatrix} 2 & 3\\ 3 & 5 \end{bmatrix},\quad A^{5} = \begin{bmatrix} 3 & 5\\ 5 & 8 \end{bmatrix}.$

You may notice that the Fibonicci numbers appear (and this is pretty clear on a second thought). So, finding a explicit form for ${\exp(A)}$ leads us to finding an explicit form for the ${k}$-th Fibonacci number (which is possible, but I will not treat this here).

Another way is diagonalization: If ${A}$ is diagonalizable, i.e. there is an invertible matrix ${S}$ and a diagonal matrix ${D}$ such that

$\displaystyle S^{-1}AS = D\quad\text{or, equivalently}\quad A = SDS^{-1},$

you see that

$\displaystyle \exp(At) = S\exp(Dt)S^{-1}$

and the matrix exponential of a diagonal matrix is simply the exponential function applied to the diagonal entries.

But not all matrices are diagonalizable! The solution that is usually presented in the classroom is to use the Jordan canonical form instead and to compute the matrix exponential of Jordan blocks (using that you can split a Jordan block ${J = D+N}$ into the sum of a diagonal matrix ${D}$ and a nil-potent matrix ${N}$ and since ${D}$ and ${N}$ commute one can calculate ${\exp(J) = \exp(D)\exp(N)}$ and both matrix exponentials are quite easy to compute).

But in light of the fact that there are a diagonalizable matrices arbitrarily close to any matrix, on may ask: What about replacing a non-diagonalizable matrix ${A}$ with a diagonalizable one (with a small error) and then use this one?

Let’s try this on a simple example:

We consider

$\displaystyle A = \begin{bmatrix} -1 & 1\\ 0 & -1 \end{bmatrix}$

which is not diagonalizable. The linear initial value problem

$\displaystyle y' = Ay,\quad y(0) = y_{0}$

has the solution

$\displaystyle y(t) = \exp( \begin{bmatrix} -t & t\\ 0 & -t \end{bmatrix}) y_{0}$

and the matrix exponential is

$\displaystyle \begin{array}{rcl} \exp( \begin{bmatrix} -t & t\\ 0 & -t \end{bmatrix}) & = &\exp(\begin{bmatrix} -t & 0\\ 0 & -t \end{bmatrix})\exp(\begin{bmatrix} 0 & t\\ 0 & 0 \end{bmatrix})\\& = &\begin{bmatrix} \exp(-t) & 0\\ 0 & \exp(-t) \end{bmatrix}\begin{bmatrix} 1 & t\\ 0 & 1 \end{bmatrix}\\ &=& \begin{bmatrix} \exp(-t) & t\exp(-t)\\ 0 & \exp(-t) \end{bmatrix}. \end{array}$

So we get the solution

$\displaystyle y(t) = \begin{bmatrix} e^{-t}(y^{0}_{1} + ty^{0}_{2})\\ e^{-t}y^{0}_{2} \end{bmatrix}.$

Let us take a close-by matrix which is diagonalizable. For some small ${\epsilon}$ we choose

$\displaystyle A_{\epsilon} = \begin{bmatrix} -1 & 1\\ 0 & -1+\epsilon \end{bmatrix}.$

Since ${A_{\epsilon}}$ is upper triangular, it has its eigenvalues on the diagonal. Since ${\epsilon\neq 0}$, there are two distinct eigenvalues and hence, ${A_{\epsilon}}$ is diagonalizable. Indeed, with

$\displaystyle S = \begin{bmatrix} 1 & 1\\ 0 & \epsilon \end{bmatrix},\quad S^{-1}= \begin{bmatrix} 1 & -\tfrac1\epsilon\\ 0 & \tfrac1\epsilon \end{bmatrix}$

we get

$\displaystyle A = S \begin{bmatrix} -1 & 0 \\ 0 & -1+\epsilon \end{bmatrix}S^{-1}.$

The matrix exponential of ${A_{\epsilon}t}$ is

$\displaystyle \begin{array}{rcl} \exp(A_{\epsilon}t) &=& S\exp( \begin{bmatrix} -t & 0\\ 0 & -t(1-\epsilon) \end{bmatrix} )S^{-1}\\ &=& \begin{bmatrix} e^{-t} & \tfrac{e^{-(1-\epsilon)t} - e^{-t}}{\epsilon}\\ 0 & e^{-(1-\epsilon)t} \end{bmatrix}. \end{array}$

Hence, the solution of ${y' = Ay}$, ${y(0) = y_{0}}$ is

$\displaystyle y(t) = \begin{bmatrix} e^{-t}y^{0}_{1} + \tfrac{e^{-(1-\epsilon)t} - e^{-t}}{\epsilon}y^{0}_{2}\\ e^{-(1-\epsilon)t}y^{0}_{2} \end{bmatrix}.$

How is this related to the solution of ${y'=Ay}$? How far is it away?

Of course, the lower right entry of ${\exp(A_{\epsilon}t)}$ converges to ${e^{-t}}$ for ${\epsilon \rightarrow 0}$, but what about the upper right entry? Note that the entry

$\displaystyle \tfrac{e^{-(1-\epsilon)t} - e^{-t}}{\epsilon}$

is nothing else that the (negative) difference quotient for the derivative of the function ${f(a) = e^{-at}}$ at ${a=1}$. Hence

$\displaystyle \tfrac{e^{-(1-\epsilon)t} - e^{-t}}{\epsilon} \stackrel{\epsilon\rightarrow 0}{\longrightarrow} -f'(1) = te^{-t}$

and we get

$\displaystyle \exp(A_{\epsilon}t) \stackrel{\epsilon\rightarrow 0}{\longrightarrow} \begin{bmatrix} e^{-t} & te^{-t}\\ 0 & e^{-t} \end{bmatrix} = \exp(At)$

as expected.

It turns out that a fairly big $\epsilon$ is already enough to get a quite good approximation and even the correct asymptotics: The blue curve it first component of the exact solution (initialized with the second standard basis vector), the red one corresponds $\epsilon = 0.1$ and the yellow on (pretty close to the blue on) is for $\epsilon = 0.01$.

to  \$\e

I remember from my introductory class in linear algebra that my instructor said

It is impossible to calculate the Jordan canonical form of a matrix numerically.

Another quote I remember is

The Jordan canonical form does not depend continuously on the matrix.

For both quotes I did not remember the underlying reasons and since I do teach an introductory class on linear algebra this year, I got thinking about these issues again.

Here is a very simple example for the fact in the second quote:

Consider the matrix

$\displaystyle A_{\varepsilon} = \begin{pmatrix}1 & \varepsilon\\ 0 & 1\end{pmatrix}$

for ${\varepsilon>0}$. This matrix has ${1}$ as a double eigenvalue, but the corresponding eigenspace is one-dimensional and spanned by ${v_{1} = e_{1}}$. To extend this vector to a basis we calculate a principle vector by solving

$\displaystyle (A_{\varepsilon}-I)v_{2} = v_{1}$

$\displaystyle v_{2} = \begin{pmatrix} 0\\\varepsilon^{-1} \end{pmatrix}.$

Defining ${S = [v_{1}\, v_{2}]}$ we get the Jordan canonical form of ${A_{\varepsilon}}$ as

$\displaystyle J_{\varepsilon} = S^{-1}A_{\varepsilon}S = \begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix}$

So we have

$\displaystyle A_{\varepsilon}\rightarrow A = I\quad\text{and}\quad J_{\varepsilon} \rightarrow J = \begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix},$

but ${J}$ is not the Jordan canonical form of ${A}$. So, in short: The Jordan canonical form of the limit of ${A_{\varepsilon}}$ is not the limit of the Jordan canonical form of ${A_{\varepsilon}}$. In other words: Taking limits does not commute with forming the Jordan canonical form.

A side note: Of course, the Jordan canonical form is not even unique in general, so speaking of “dependence on the matrix” is an issue. What we have shown is, that there is no way to get continuous dependence on the matrix even if non-uniqueness is not an issue (like in the example above).

What about the first quote? Why is it impossible to compute the Jordan canonical form numerically? Let’s just try! We start with the simplest non-diagonalizable matrix

$\displaystyle A = \begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix}$

If we ask MATLAB or Octave to do the eigenvalue decomposition we get

>> [V,D] = diag(A)
V =

1.00000 -1.00000
0.00000  0.00000

D =

1 0
0 1

We see that ${V}$ does not seem to be invertible and indeed we get 

>> rank(V)
ans = 1


What is happening? MATLAB did not promise the produce an invertible ${V}$ and it does not promise that the putcome would fulfill ${V^{-1}AV = D}$ (which is my definition of diagonalizability). It does promise that ${AV = VD}$ and in fact

>> A*V
ans =

1.00000  1.00000
0.00000 -0.00000

>> V*D
ans =

1.00000 -1.00000
0.00000  0.00000

>> A*V-V*D
ans =

0.0000e+00 2.2204e-16
0.0000e+00 0.0000e+00

so the promised identity is fulfilled up to machine precision (which is actually equal $\texttt{2.2204e-16}$ and we denote it by ${\epsilon}$ from here on).

How did MATLAB diagonalize this matrix? Here is the thing: The diagonalizable matrices are dense in ${{\mathbb C}^{n\times n}}$! (You probably have heard that before…) What does that mean numerically? Any matrix that you represent in floating point numbers is actually a representative of a whole bunch of matrices. Each entry is only known up to a certain precision. But this bunch of matrices does contain some matrix which is diagonalizable! This is exactly, what it means to be a dense set! So it is impossible to say if a matrix given in floating point numbers is actually diagonalizable or not. So, what matrix was diagonalized by MATLAB? Let us have closer look at the matrix ${V}$: The entries in the first row are in fact ${1}$ and ${-1}$:

>> V(1,:)
ans =
1 -1

In the second row we have 

>> V(2,1)
ans =
0
>> V(2,2)
ans = 2.2204e-16

and there we have it. The inverse of ${V}$ does exist (although the matrix has numerical rank ${1}$) and it is

>> inv(V) warning: matrix singular to machine precision, rcond = 1.11022e-16
ans =

1.0000e+00 4.5036e+15
0.0000e+00 4.5036e+15

and note that $\texttt{4.5036e+15}$ is indeed just the inverse of the machine precision, so this inverse is actually 100% accurate. Recombining gives

>> inv(V)*D*V warning: matrix singular to machine precision, rcond = 1.11022e-16
ans =

1 0
0 1


which is not even close to our original ${A}$.
How is that? Here is a solution. The matrix

$\displaystyle \tilde A = \begin{pmatrix} 1 & 1\\ 0 & 1+\epsilon^{-2} \end{pmatrix}$

is indistinguishable from ${A}$ numerically. However, it has two distinct eigenvalues, so it is diagonalizable. Indeed, a basis of eigenvectors is

$\displaystyle \tilde V = \begin{pmatrix} 1 & -1\\ 0 & \epsilon^{-2} \end{pmatrix}$

which is indistinguishable from ${V}$ above and it holds that

$\displaystyle \tilde V^{-1}\tilde A\tilde V = \begin{pmatrix} 1 & 0\\ 0 & 1+\epsilon^{-2}. \end{pmatrix}$

which is indistinguishable from $D$.

Im Wintersemster 2018/19 habe ich die Vorlesung “Lineare Algebra 1” gehalten. Hier die lecture notes dazu:

Im Wintersemester 2015/2016 habe ich die Vorlesung “Analysis 3” gehalten und dazu dieses Skript verfasst:

Diese Seite dient dazu, in den Kommentaren gefundene Fehler zu sammlen und hier zu dokumentieren.

Errata zur gedruckten Version:

• Seite 16: “$|\det(U)|$ und $\int_{\mathbb{R}}$ statt $\int_{\mathbb{-R}}$
• Seite 17, zweiter Absatz: “wobei $G$ eine Teilmenge des $\mathbb{R}^{n+1}$ ist”
• Seite 34 Beispiel 18.5 ii) Argument leicht umformuliert da vorher nicht ganz korrekt
• Seite 45: $\varphi_2 = \dots = \varphi''$
• Seite 58 Satz 19.3 Schritt2. die letzte Zeile. ” Dies heißt aber, dass $\varphi^1,\dots,\varphi^n$ linear abhängig sind. Widerspruch!”
Korrektur: “Dies heißt aber, dass $\psi^1,\dots,\psi^n$ linear abhängig sind. Widerspruch!”
• Seite 59 die erste Bemerkung (zweite Zeile): Lösungen $\varphi^k$ statt $\psi^k$;
• Seite 61 Korollar 19.7 “Fundamentalmatrix zu $y'=A(x)y$” statt “$y'=A(x)$“.
• Seite 70, Beweis von Satz 19.17: $+b(x)$ statt $-b(x)$.
• Seite 80, Beipsiel 19.29, 2.: $\mathrm{i}\omega$ ist eine Nullstelle.
• Seite 107, Satz 21.4: $\tilde\phi:\tilde T\to M$.
• Seite 116: $\omega_5 = \tfrac{8\pi^2}{3}$.
• Seite 137 unten: “aus $f_\nu\to f$ glm. folgt…”
• Seite 140, Beweis von Lemma 23.11: $\partial^\alpha\phi_\nu\stackrel{\mathcal{D}}{\to}\partial^\alpha\phi$ .
• Seite 141: $[x\phi(x)]_{-\infty}^0$
• Seite 152: $(LE)*\rho = \delta_0*\rho$

Das Skript zur zugehörigen Vorlesung “Analysis 2” ist hier zu finden.

Im Sommersemester 2015 habe ich die Vorlesung “Analysis 2” gehalten und dazu dieses Skript verfasst:

Diese Seite dient dazu, in den Kommentaren gefundene Fehler zu sammlen und hier zu dokumentieren.

Errata zur gedruckten Version:

• p. 54, Beweis zu Satz 13.32: In der letzten Zeile müsste $D_i f(x)$ statt $D_if(0)$ stehen.
• p. 61, Beweis zu Satz 14.8: Nach dem ersten Absatz müsste es heißen $v-y=A(g(v))(g(v)-g(y))$.
• p. 63, Beweis zu Satz14.11: In der Zeile unter (*) ist ein „gilt“ zu viel.
• p. 66, Beweis zu Satz14.13: In der vorletzten Zeile fehlt das „d“ von „passend“.
• p. 82. Lemma 15.16: In der ersten Zeile muss es  $j\neq k$ heißen.
• p. 93, Zeile über Beispiel 16.1: Es muss heißen „..allerdings keine brauchbaren Sätze”.
• p. 106, Beweis zu Satz 16.24: Im ersten Absatz, dritte Zeile: „Somit ist $x\mapsto D_t f(x,t)$…“
• p. 108, Beispiel 16.26: dritte Gleichung, zweites Integral muss heißen
$\int_0^\infty x^3\exp(-tx)\mathrm{d}x = \tfrac{6}{t^4}$.
• p. 108, Beispiel 16.26: vorletztes Integral muss heißen $\int_0^\infty x^n\exp(-x)\mathrm{d}x = n!$.
• p. 109,  zweiter Absatz muss lauten “… bei jedem Integral um einen Grenzwert…”.
• p. 109 letzter Satz muss lauten “…und den Größen…”.
• p. 110, Satz 16.27: Letzter Satz muss lauten “Ist $\lambda(M)<\infty$, so ist $f\in L^1(\mathbb{R})$.

Zur ergänzenden Vorlesung zur Analysis 2 für Physiker mit der knappen “Hands-on” Einführung in die Vektoranalysis gibt es hier ebenfalls das Skript:

Errata:

In my Analysis class today I defined the trigonometric functions ${\sin}$ and ${\cos}$ by means of the complex exponential. As usual I noted that for real ${x}$ we have ${|\mathrm{e}^{\mathrm{i} x}| = 1}$, i.e. ${\mathrm{e}^{\mathrm{i} x}}$ lies on the complex unit circle. Then I drew the following picture:

This was meant to show that the real part and the imaginary part of ${\mathrm{e}^{\mathrm{i} x}}$ are what is known as ${\cos(x)}$ and ${\sin(x)}$, respectively.

After the lecture a student came to me and noted that we could have started with ${a>1}$ and note that ${|a^{\mathrm{i} x}|=1}$ and could do the same thing. The question is: Does this work out? My initial reaction was: Yeah, that works, but you’ll get a different ${\pi}$

But then I wondered, if this would lead to something useful. At least for the logarithm one does a similar thing. We define ${a^x}$ for ${a>0}$ and real ${x}$ as ${a^x = \exp_a(x) = \exp(x\ln(a))}$, notes that this gives a bijection between ${{\mathbb R}}$ and ${]0,\infty[}$ and defines the inverse function as

$\displaystyle \log_a = \exp_a^{-1}.$

So, nothing stops us from defining

$\displaystyle \cos_a(x) = \Re(a^{\mathrm{i} x}),\qquad \sin_a(x) = \Im(a^{\mathrm{i} x}).$

Many identities are still valid, e.g.

$\displaystyle \sin_a(x)^2 + \cos_a(x)^2 = 1$

or

$\displaystyle \cos_a(x)^2 = \tfrac12(1 + \cos_a(2x)).$

For the derivative one has to be a bit more careful as it holds

$\displaystyle \sin_a'(x) = \ln(a)\cos_a(x),\qquad \cos_a'(x) = -\ln(a)\sin_a(x).$

Coming back to “you’ll get a different ${\pi}$”: In the next lecture I am going to define ${\pi}$ by saying that ${\pi/2}$ is the smallest positive root of the functions ${\cos}$. Naturally this leads to a definition of “${\pi}$ in base ${a}$” as follows:

Definition 1 ${\pi_a/2}$ is the smallest positive root of ${\cos_a}$.

How is this related to the area of the unit circle (which is another definition for ${\pi}$)?

The usual analysis proof goes by calculating the area of a quarter the unit circle by integral ${\int_0^1 \sqrt{1-x^2} dx}$.

Doing this in base ${a}$ goes by substituting ${x = \sin_a(\theta)}$:

$\displaystyle \begin{array}{rcl} \int\limits_0^1\sqrt{1-x^2}\, dx & = & \int\limits_0^{\pi_a/2}\sqrt{1-\sin_a(\theta)^2}\, \ln(a)\cos_a(\theta)\, d\theta\\ & = & \ln(a) \int\limits_0^{\pi_a/2} \cos_a(\theta)^2\, d\theta\\ & = & \ln(a) \frac12 \int\limits_0^{\pi_a/2}(1 + \cos_a(2\theta))\, d\theta\\ & = & \frac{\ln(a)}{2} \Big( \frac{\pi_a}{2} + \int\limits_0^{\pi_a/2}\cos_a(2\theta)\, d\theta\\ & = & \frac{\ln(a)\pi_a}{4} + 0. \end{array}$

Thus, the area of the unit circle is now ${\ln(a)\pi_a}$

Oh, and by the way, you’ll get the nice identity

$\displaystyle \pi_{\mathrm{e}^\pi} = 1$

(and hence, the area of the unit circle is indeed ${\ln(\mathrm{e}^\pi)\pi_{\mathrm{e}^\pi} = \pi}$)…

This is the last part of the lecture notes for the course in integral transforms.

# 1. Fourierreihen und das Abtasttheorem

Neben der Fourier-Transformation auf ${ L^1({\mathbb R}^d)}$, ${ L^2({\mathbb R}^d)}$, ${\mathcal{S}{{\mathbb R}^d}}$ und ${\mathcal{S}({\mathbb R}^d)'}$ sind auch analoge Transformationen für Funktionen ${f}$ auf Rechtecken ${\prod_{k=1}^d[a_k,b_k]\subset{\mathbb R}^d}$ interessant. Dies führt auf die sogenannten Fourierreihen. Mit ihrer Hilfe werden wir das Abtasttheorem beweisen

## 1.1. Fourierreihen in ${L^2}$

Wir betrachten vorerst eindimensionale Signale ${u:[-\pi,\pi]\rightarrow {\mathbb C}}$. Signale auf allgemeinen beschränkten Intervallen erhalten wir durch Skalierung und höherdimensionale Abbildungen werden wir durch “Tensorproduktbildung” behandeln können. In diesem Abschnitt werden wir uns alle Funktionen auf einem beschränkten Intervall (wie z.B. ${[-\pi,\pi]}$) als periodisch auf ganz ${{\mathbb R}}$ fortgesetzt denken. Z.B. hat die Funktion ${u(x) = x}$ (auf ${[-\pi,\pi]}$) für uns hier eine Sprungstelle bei ${x=\pi}$. Als Nebeneffekt können wir Integrale von periodischen Funktionen auch über verschobene Intervalle ausrechnen, wenn es sich anbietet, d.h. für ${2\pi}$-periodisches ${u}$ und jedes ${a\in{\mathbb R}}$ gilt

$\displaystyle \int_{-\pi}^\pi u(x){\mathrm d}{x} = \int_{a}^{2\pi+a}u(x){\mathrm d}{x}.$

Im Falle von Fourierreihen können wir, anders als im Fall der Fourier-Transformation, gleich im Hilbert-Raum ${L^2([-\pi,\pi])}$ beginnen. Wir statten ihn mit dem normalisierten Skalarprodukt

$\displaystyle \langle u,v\rangle_{[-\pi,\pi]} = \frac{1}{2\pi}\int_{-\pi}^\pi u(x)\overline{v}(x){\mathrm d}{x}$

aus, welches die Norm

$\displaystyle \|u\|_{[-\pi,\pi]} = \frac{1}{\sqrt{2\pi}}\Big(\int_{-\pi}^\pi |u(x)|^2{\mathrm d}{x}\Big)^{1/2}$

nach sich zieht.

Bei komplexen Fourier-Reihen wird eine Funktion ${u:[-\pi,\pi]\rightarrow{\mathbb C}}$ als Reihe in den komplexen Exponentialfunktionen

$\displaystyle e_k(x) = \mathrm{e}^{\mathrm{i} kx}\quad (k\in{\mathbb Z})$

geschrieben. Die Zahlen

$\displaystyle c_k = \frac{1}{2\pi}\int_{-\pi}^\pi u(x)\mathrm{e}^{-\mathrm{i} kx}{\mathrm d}{x} = \frac{1}{2\pi}\int_{-\pi}^\pi u(x)\overline{e_k(x)}{\mathrm d}{x}$

heißen (komplexe) Fourier-Koeffizienten von ${u}$.

Satz 1 Die Funktionen ${(e_k)_{k\in{\mathbb Z}}}$ bilden eine Orthonormalbasis von ${L^2([-\pi,\pi])}$. Insbesondere lässt sich jede Funktion ${u\in L^2([-\pi,\pi])}$ als Fourierreihe

$\displaystyle u = \sum_{k\in{\mathbb Z}}c_k e_k$

schreiben, wobei die Reihe im ${L^2}$-Sinn konvergiert. Insbesondere gilt

$\displaystyle \|u\|_{[-\pi,\pi]}^2 = \sum_{k\in{\mathbb Z}} |c_k|^2 \qquad \text{(Parseval Identit\"at)}.$

Beweis: Die Orthonormalität der ${e_k}$ lässt sich elementar nachrechnen. Um zu zeigen, dass die ${e_k}$ eine Basis bilden, zeigen wir, dass die lineare Hülle der ${e_k}$ dicht in ${L^2([-\pi,\pi])}$ liegt. Nach dem Weierstraßschen Approximationssatz für trigonometrische Polynome existiert für jede stetige Funktion ${u:[-\pi,\pi]\rightarrow{\mathbb C}}$ und jedes ${\varepsilon>0}$ ein trigonometrisches Polynom ${P_k(x) = \sum_{n=-k}^k a_ne_n(x)}$, so dass ${|u(x) - P_k(x)|\leq \varepsilon}$. Es folgt

$\displaystyle \|u-P_k\|_{[-\pi,\pi]}^2 = \frac{1}{2\pi}\int_{-\pi}^\pi |u(x)-P_k(x)|^2{\mathrm d}{x} \leq \varepsilon^2.$

Da die stetigen Funktionen in ${L^2([-\pi,\pi])}$ dicht liegen, lässt sich auch jede ${L^2}$-Funktion beliebig gut durch trigonometrische Polynome approximieren und wir sehen, dass die ${(e_k)}$ eine Basis bilden. Die Reihendarstellung und die Parseval Identität sind eine direkt Konsequenz aus allgemeinen Aussagen über Orthonormalbasen in Hilbert-Räumen. $\Box$

Mit Hilfe des oben definierten Skalarproduktes kann man die Fourier-Entwicklung auch schreiben als

$\displaystyle u = \sum_{k\in{\mathbb Z}}\langle u,e_k\rangle_{[-\pi,\pi]} e_k$

was noch einmal deutlicher herausstellt, dass es sich bei den ${(e_k)}$ um eine Orthonormalbasis handelt.

Das summierbare Folgen Nullfolgen sind, ist folgt aus der Parseval-Identität:

Korollar 2 (Riemann-Lebesgue-Lemma für Fourier-Reihen) Für die Fourier-Koeffizienten ${c_k}$ einer Funktion ${u\in L^2([-\pi,\pi])}$ gilt

$\displaystyle c_k\rightarrow 0,\ \text{f\"ur}\ |k|\rightarrow\infty.$

Bemerkung 3 (Reelle Fourier-Koeffizienten) Über die Eulersche Formel lassen sich auch “reelle” Fourier-Koeffizienten bestimmen. Diese sind

$\displaystyle a_k = \frac{1}{\pi}\int_{-\pi}^\pi u(x)\cos(kx){\mathrm d}{x},\quad k=0,1,2,\dots$

und

$\displaystyle b_k =\frac{1}{\pi}\int_{-\pi}^\pi u(x)\sin(kx){\mathrm d}{x},\quad k=1,2,\dots$

Für reellwertige Funktionen sind die ${a_k}$ und ${b_k}$ reellwertig. Ist ${u}$ gerade (d.h. ${u(-x)=u(x)}$) gilt ${b_k=0}$, ist ${u}$ ungerade (${u(-x) = -u(x)}$), so gilt ${a_k=0}$.

Bemerkung 4 Für Funktionen in ${L^2([-B,B])}$ definieren wir das Skalarprodukt

$\displaystyle \langle u,v\rangle_{[-B,B]} = \frac{1}{2B}\int_{-B}^Bu(x)\overline{v}(x){\mathrm d}{x}.$

Die Funktionen ${e_k(x) = \mathrm{e}^{\mathrm{i} k\tfrac{\pi}{B} x}}$ bilden hier eine Orthonormalbasis und mit den Fourier-Koeffizienten von ${u}$

$\displaystyle \langle u,e_k\rangle_{[-B,B]} = \frac{1}{2B}\int_{-B}^B u(x) \mathrm{e}^{-\mathrm{i} k\tfrac{\pi}{B}x}{\mathrm d}{x}$

gilt

$\displaystyle u = \sum_{k\in{\mathbb Z}}\langle u,e_k\rangle_{[-B,B]}e_k.$

Auf einem ${d}$-dimensionalen Rechteck ${\Omega = \prod_{l=1}^d [-B_l,B_l]}$ definieren wir die Funktion ${(e_{\vec k})_{\vec k\in {\mathbb Z}^d}}$ durch

$\displaystyle e_{\vec k}(x) = \prod_{l=1}^d\mathrm{e}^{\mathrm{i} k_l \tfrac{\pi}{B_l}x_l}$

und erhalten eine Orthonormalbasis in ${L^2(\Omega)}$ bezüglich des Skalarproduktes

$\displaystyle \langle u,v\rangle_\Omega = \frac{1}{2^d\prod_{l=1}^dB_l }\int_\Omega u(x)\overline{v}(x){\mathrm d}{x}.$

## 1.2. Punktweise Konvergenz von Fourier-Reihen

Die Konvergenz der Fourier-Reihe einer ${L^2}$-Funktion in ${L^2}$-Sinne ist (mit Hilfe des Weierstraßschen Approximationssatzes) nicht sehr schwierig zu zeigen. Im Allgemeinen kann die Konvergenz von Fourier-Reihen sehr schwierig sein. Wir gehen in diese Richtung nicht allzu sehr in die Tiefe. Wir wollen die Partialsummen der Fourier-Reihen betrachten, d.h. zu ${N\in{\mathbb N}}$ die Funktion

$\displaystyle S_N(x) = \sum_{k=-N}^N \langle u,e_k\rangle_{[-\pi,\pi]}\mathrm{e}^{\mathrm{i} kx}.$

Wir beginnen mit dem Faltungsatz für Fourier-Reihen:

Lemma 5 (Fourier-Koeffizienten der periodischen Faltung) Es seien ${f,g\in L^1([-\pi,\pi])}$ (${2\pi}$-periodisch auf ${{\mathbb R}}$ fortgesetzt). Die periodische Faltung von ${f}$ und ${g}$ ist

$\displaystyle f*g(x) = \int_{-\pi}^\pi f(y)g(x-y){\mathrm d}{y}$

und es gilt:

$\displaystyle \langle f*g,e_k\rangle_{[-\pi,\pi]} = 2\pi\langle f,e_k\rangle_{[-\pi,\pi]}\langle g,e_k\rangle_{[-\pi,\pi]},$

d.h. die Fourier-Koeffizienten der Funktion ${f*g}$ sind (bis auf den Vorfaktor) die Produkte der Fourier-Koeffizienten von ${f}$ und ${g}$.

Beweis: Mit dem Satz von Fubini folgt

$\displaystyle \begin{array}{rcl} \langle f*g,e_k\rangle_{[-\pi,\pi]} &= & \frac{1}{2\pi}\int_{-\pi}^\pi \int_{-\pi}^\pi f(y)g(x-y){\mathrm d}{y}\mathrm{e}^{-\mathrm{i} kx}{\mathrm d}{x}\\ &=& \frac{1}{2\pi}\int_{-\pi}^\pi f(y) \mathrm{e}^{-\mathrm{i} ky}\int_{-\pi}^\pi g(x-y){\mathrm d}{y}\mathrm{e}^{-\mathrm{i} k(x-y)}{\mathrm d}{x}\\ &=& 2\pi \langle f,e_k\rangle_{[-\pi,\pi]} \langle g,e_k\rangle_{[-\pi,\pi]} . \end{array}$

$\Box$

Die Partialsummen ${S_N}$ lassen sich als Faltung schreiben:

Satz 6 Es sei ${u\in L^1([-\pi,\pi])}$ und zu ${N\in{\mathbb N}}$ definieren wir

$\displaystyle S_N(x) = \sum_{k=-N}^N \langle u,e_k\rangle_{[-\pi,\pi]}\mathrm{e}^{\mathrm{i} kx}.$

Dann gilt mit dem Dirichlet-Kern

$\displaystyle D_N(x) = \frac{\sin\big((N+\tfrac{1}{2})x\big)}{2\pi\sin(\tfrac{x}{2})},$

dass

$\displaystyle S_N(x) = u*D_N(x) = \int_{-\pi}^\pi u(y)D_N(x-y){\mathrm d}{y}.$

Beweis: Das Ergebnis lässt wie folgt erahnen: Sind ${c_k}$ die Fourier-Koeffizienten von ${u}$ und ist ${b_k = 1}$ (${|k|\leq N}$), ${b_k = 0}$ (${|k|>N}$), so ist

$\displaystyle S_N(x) = \sum_{k\in{\mathbb Z}} c_k b_k \mathrm{e}^{\mathrm{i} kx}.$

Auf Grund der vorigen Lemmas vermuten wir also, dass es sich bei ${D_N}$ um die Funktion ${\tfrac{1}{2\pi}\sum_{|k|\leq N}\mathrm{e}^{\mathrm{i} kx}}$ handelt. Das stimmt in der Tat: Mit Hilfe der geometrischen Summe folgt für ${r\in {\mathbb C}}$

$\displaystyle \begin{array}{rcl} \sum_{k=-N}^N r^k &=& r^{-N}\sum_{k=0}^{2N} r^k\\ &=& r^{-N}\frac{1-r^{2N+1}}{1-r}\\ &=& \frac{r^{-N-1/2}}{r^{-1/2}}\frac{1-r^{2N+1}}{1-r}\\ &=& \frac{r^{-N-1/2} - r^{N+1/2}}{r^{-1/2} - r^{1/2}}. \end{array}$

Mit ${r=\mathrm{e}^{\mathrm{i} x}}$ folgt

$\displaystyle \begin{array}{rcl} \sum_{|k|\leq N}\mathrm{e}^{\mathrm{i} kx}&=& \frac{\mathrm{e}^{-\mathrm{i} x(N+1/2)} - \mathrm{e}^{\mathrm{i} x(N+1/2)}}{\mathrm{e}^{-\mathrm{i} x/2} - \mathrm{e}^{\mathrm{i} x/2}}\\ &=& \frac{2\mathrm{i} \sin\big((N+\tfrac{1}{2})x\big)}{2\mathrm{i} \sin(\tfrac{x}{2})}=2\pi D_N(x). \end{array}$

Nun rechnen wir

$\displaystyle \begin{array}{rcl} u*D_N(x) &=& \int_{-\pi}^\pi u(y)D_N(x-y){\mathrm d}{y}\\ &=& \sum_{k=-N}^N\frac{1}{2\pi}\int_{-\pi}^\pi u(y)\mathrm{e}^{\mathrm{i} k(x-y)}{\mathrm d}{y}\\ &=& \sum_{k=-N}^N\mathrm{e}^{\mathrm{i} kx}\frac{1}{2\pi}\int_{-\pi}^\pi u(y)\mathrm{e}^{-\mathrm{i} ky}{\mathrm d}{y} =S_N(x). \end{array}$

$\Box$

Satz 7 (Punktweise Konvergenz der Fourier-Reihe von differenzierbaren Funktionen) Es sei ${f:[-\pi,\pi]\rightarrow {\mathbb C}}$ differenzierbar (periodisch fortgesetzt auf ${{\mathbb R}}$ und dabei in ${\pm\pi}$ ebenfalls differenzierbar). Dann gilt für jedes ${x\in[-\pi,\pi]}$

$\displaystyle S_N(x) \rightarrow f(x),\quad N\rightarrow\infty.$

Beweis: Aus der Darstellung ${D_N(x) = \tfrac{1}{2\pi}\sum_{k=-N}^N \mathrm{e}^{ikx}}$ folgt direkt, dass

$\displaystyle \int_{-\pi}^\pi D_N(x){\mathrm d}{x} = 1.$

Es gilt

$\displaystyle \begin{array}{rcl} S_N(x) - f(x) &=& f*D_N(x) - f(x)\\ &=& \int_{-\pi}^\pi (f(x-y) - f(x))D_N(y){\mathrm d}{y}\\ &=& \frac{1}{2\pi}\int_{-\pi}^\pi \frac{f(y-x) - f(x)}{\sin(y/2)}\sin\big((N+1/2) y\big){\mathrm d}{y}. \end{array}$

Die Funktion ${g_x(y) = \frac{f(x-y) - f(x)}{\sin(y/2)}}$ ist in jedem ${y\neq 0}$ stetig, und lässt sich nach ${y=0}$ durch ${-2f'(x)}$ stetig fortsetzen, insbesondere ist ${g_x}$ eine ${L^2}$-Funktion. Es gilt also

$\displaystyle \begin{array}{rcl} S_N(x) - f(x) &=& \frac{1}{2\pi}\int_{-\pi}^\pi g_x(y)\frac{\mathrm{e}^{\mathrm{i}(N+1/2)y}-\mathrm{e}^{-\mathrm{i}(N+1/2) y}}{2\mathrm{i}}{\mathrm d}{y}\\ &=& \frac{\langle g_x(y) \mathrm{e}^{\mathrm{i} y/2},e_{-N}\rangle - \langle g_x(y) \mathrm{e}^{-\mathrm{i} y/2},e_N\rangle}{2\mathrm{i}}. \end{array}$

Nach dem Riemann-Lebesgue-Lemma (Korollar 2) geht die rechte Seite für ${N\rightarrow\infty}$ gegen Null und es folgt die Behauptung. $\Box$

Bemerkung 8 Ein genauer Blick auf den Beweis offenbart, dass sich die Voraussetzungen in obigem Satz abschwächen lassen: ist die Funktion

$\displaystyle g_x(y) = \frac{f(x-y) - f(x)}{\sin(y/2)}$

eine Funktion für die das Riemann-Lebesgue-Lemma gilt (d.h. die Fourier-Koeffizienten gehen gegen Null), so konvergiert die Fourier-Reihe von ${f}$ im Punkt ${x}$. Das Riemann-Lebesgue-Lemma gilt nicht nur für ${L^2}$-Funktionen, sondern auch für integrierbare (d.h. ${L^1}$) Funktionen. Dies folgt zum Beispiel aus Aufgabe 25: Eine Funktion ${f\in L^1([-\pi,\pi])}$ lässt sich durch Null-Fortsetzung zu einer Funktion ${\tilde f\in L^1({\mathbb R})}$ machen. Dann gilt

$\displaystyle \langle f,e_k\rangle_{[-\pi,\pi]} = \frac{1}{2\pi}\int_{\mathbb R} \tilde f(x)\mathrm{e}^{-\mathrm{i} k x}{\mathrm d}{x} = \frac{1}{\sqrt{2\pi}}\widehat{\tilde f}(k)\rightarrow 0\quad |k|\rightarrow\infty.$

Die Stetigkeit von ${f}$ in ${x}$ ist allerdings nicht genug, um die Konvergenz der Fourier-Reihe in ${x}$ zu garantieren; es gibt mehr oder minder explizite Gegenbeispiele, siehe z.B. Kapitel II, Abschnitt 2 in “An Introduction to Harmonic Analysis” von Yitzhak Katznelson. In eben diesem Buch ist auch das Ergebnis von Kolmogorov zu finden, dass es eine ${L^1}$-Funktion gibt, deren Fourier-Reihe überall divergiert. Dass der Raum ${L^1}$ hier speziell ist, zeigt das Carleson-Hunt-Theorem, dass die Fourier-Reihe einer ${L^p}$-Funktion (mit ${2\geq p>1}$) fast überall konvergiert.

## 1.3. Das Abtasttheorem

Zur Diskretisierung werden kontinuierliche eindimensionale Signale ${u:{\mathbb R}\rightarrow{\mathbb C}}$ üblicherweise mit einer konstanten Abtastrate ${T>0}$ abgetastet, das heißt, es werden die Werte ${(u(nT))_{n\in{\mathbb Z}}}$ gespeichert.

Unter welchen Umständen die Abtastwerte die gesamte Information des Signals beinhalten, zeigt der nächste Satz:

Satz 9 (Abtasttheorem nach Shannon-Whitakker) Es seien ${B>0}$ und ${u\in L^2({\mathbb R})}$ so, dass ${\widehat{u}(\xi) = 0}$ für ${|\xi|>B}$. Dann ist ${u}$ durch die Werte ${(u(k\pi/B))_{k\in{\mathbb Z}}}$ bestimmt und es gilt mit

$\displaystyle \mathrm{sinc}(x) = \frac{\sin(x)}{x}$

für alle ${x}$ die Rekonstruktionsformel

$\displaystyle u(x) = \sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B}) \mathrm{sinc}\bigl(B(x - \tfrac{k\pi}{B})\bigr).$

Beweis: Der Trick in diesem Beweis besteht darin, dass sich ${\widehat{u}}$ sowohl als Element in ${L^2({\mathbb R})}$ als auch in ${L^2([-B,B])}$ auffassen lässt. Wir können also sowohl die Fourier-Transformation als auch die Fourierreihe von ${\widehat{u}}$ betrachten. Da ${\widehat{u}}$ in ${L^2([-B,B])}$ liegt, liegt es ebenfalls in ${L^1([-B,B])}$. Damit ist ${u}$ stetig und die Punktauswertung von ${u}$ ist wohldefiniert. Wir benutzen die Rekonstruktionsformel der Fourier-Transformation und erhalten

$\displaystyle u(\tfrac{k\pi}{B}) = \frac{1}{\sqrt{2\pi}}\int_{-B}^B \widehat{u}(\xi)\mathrm{e}^{\mathrm{i} \xi \tfrac{k\pi}{B}}{\mathrm d}{\xi} = \sqrt{\tfrac{2}{\pi}}B\,\langle\widehat{u},e_{-k}\rangle_{[-B,B]}$

(beachte ${e_k(x) = \mathrm{e}^{\mathrm{i} k \tfrac{\pi}{B}x}}$). Die Werte ${u(\tfrac{k\pi}{B})}$ bestimmen also die Werte ${\langle \widehat{u},e_{-k}\rangle_{[-B,B]}}$ und da ${\widehat{u}\in L^2([-B,B])}$ ist, auch die ganze Funktion ${\widehat{u}}$. Damit ist gezeigt, dass ${u}$ durch die Werte ${(u(\tfrac{k\pi}{B}))_{k\in{\mathbb Z}}}$ bestimmt ist. Um die Rekonstruktionsformel zu zeigen, entwickeln wir ${\widehat{u}}$ in seine Fourierreihe und beachten dabei, dass wir für ${\xi\in{\mathbb R}}$ mit der charakteristischen Funktion ${\chi_{[-B,B]}}$ einschränken müssen:

$\displaystyle \widehat{u}(\xi) = \sum_{k\in{\mathbb Z}} \langle \widehat{u},e_k\rangle_{[-B,B]}e_k(\xi)\chi_{[-B,B]}(\xi) =\sqrt{\frac{\pi}{2}}\frac{1}{B}\sum_{k\in{\mathbb Z}} u(-\tfrac{k\pi}{B}) e_k(\xi)\chi_{[-B,B]}(\xi).$

Da die inverse Fourier-Transformation stetig ist, können wir sie an der Reihe vorbeiziehen und bekommen

$\displaystyle u = \sqrt{\frac{\pi}{2}}\frac{1}{B}\sum_{k\in{\mathbb Z}} u(-\tfrac{k\pi}{B}) \mathcal{F}^{-1}(e_k\chi_{[-B,B]}).$

Mit Hilfe der Rechenregeln für die Fouriertransformation und der bekannten Transformierten der charakteristischen Funktion ergibt sich

$\displaystyle \begin{array}{rcl} \mathcal{F}^{-1}(e_k\chi_{[-B,B]})(x) & =& \overline{\mathcal{F}(\overline{M_{k\tfrac{\pi}{B}}\chi_{[-B,B]}})(x)}\\ & = &D_{-1}V_{-k\tfrac{\pi}{B}}\mathcal{F}(\chi_{[-B,B]})(x) = \sqrt{\tfrac{2}{\pi}}B\mathrm{sinc}\bigl(B(-x-\tfrac{k\pi}{B})\bigr)\\ & =& \sqrt{\tfrac{2}{\pi}}B\mathrm{sinc}\bigl(B(x+\tfrac{k\pi}{B})\bigr). \end{array}$

Die Kombination mit der vorhergehenden Formel zeigt die Behauptung. $\Box$

Bemerkung 10 Im obigen Fall nennen wir ${B}$ die Bandbreite des Signals. Die Bandbreite gibt an, welches die höchste Frequenz in dem Signal ist. In Worten gesprochen sagt das Abtasttheorem das Folgende: Hat ein Signal Bandbreite ${B}$, so muss es mit der Abtastrate ${\tfrac{\pi}{B}}$ abgetastet werden, um alle Informationen des Signals zu speichern.

Wir benutzen hier das Wort “Frequenz” nicht in dem Sinne, in dem es in den Ingenieurwissenschaften häufig benutzt wird. Dort wird typischerweise die Kreisfrequenz ${f = 2\pi B}$ benutzt. Ebenso ist dort die Variante der Fourier-Transformation mit dem Term ${\mathrm{e}^{-2\pi\mathrm{i} x\cdot \xi}}$ verbreitet. Damit liest sich die Aussage des Abtasttheorems: Hat ein Signal Frequenzen bis zu einer maximalen Kreisfrequenz ${f}$, so muss es mit der Abtastrate ${\tfrac{1}{2f}}$ abgetastet werden, um alle Informationen des Signals zu speichern. In anderen Worten: Man muss doppelt so schnell wie die höchste Kreisfrequenz abtasten. Man nennt die Abtastrate ${\tfrac{1}{2f}}$ auch Nyquist-Rate.

## 1.4. Der Alias-Effekt

Der Alias-Effekt ist das, was in diesem Bild oder auch bei Aufrufen von “plot(sin(1:5000),’.’)” in MATLAB zu sehen ist. Das diskrete Bild, beziehungsweise Signal, entspricht nicht dem Originalsignal. Es tauchen Frequenzen in der diskreten Version auf, die im Original nicht enthalten sind. Sie stehen als “Alias” für die richtigen Frequenzen.

Im vorhergehenden Abschnitt haben wir gesehen, dass dieser Effekt nicht auftreten kann, wenn das Signal hoch genug abgetastet wurde. Wie genau der Alias-Effekt entsteht und wie man ihn beheben kann, wollen wir in diesem Abschnitt verstehen.

Wir benötigen ein weiteres Hilfsmittel:

Lemma 11 (Poisson-Formel) Es sei ${u\in L^2({\mathbb R})}$ und ${B>0}$ so, dass entweder die Funktion ${\sum_{k\in{\mathbb Z}} \widehat{u}(\cdot + 2Bk) \in L^2([-B,B])}$ oder die Reihe ${\sum_{k\in{\mathbb Z}} |u(\tfrac{k\pi}{B})|^2}$ konvergiert. Dann gilt für fast alle ${\xi}$

$\displaystyle \sum_{k\in{\mathbb Z}} \widehat{u}(\xi+2Bk) = \frac{\sqrt{2\pi}}{2B}\sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B}) \mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}.$

Beweis: Wir definieren die Periodisierung von ${\widehat{u}}$ als

$\displaystyle \phi(\xi) = \sum_{k\in{\mathbb Z}} \widehat{u}(\xi+2Bk).$

Ist ${\phi\in L^2([-B,B])}$, können wir die Funktion durch ihre Fourierreihe darstellen. Die Fourier-Koeffizienten sind

$\displaystyle \begin{array}{rcl} \langle \phi ,e_k\rangle_{[-B,B]} & =& \frac{1}{2B} \int_{-B}^B \phi(\xi)\mathrm{e}^{-\mathrm{i} \tfrac{k\pi}{B}\xi}{\mathrm d}{\xi}\\ & = &\frac{1}{2B} \int_{-B}^B \sum_{l\in{\mathbb Z}} \widehat{u}(\xi+2Bl)\mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}{\mathrm d}{\xi}\\ & = &\frac{1}{2B} \int_{-B}^B \sum_{l\in{\mathbb Z}} \widehat{u}(\xi+2Bl)\mathrm{e}^{-\mathrm{i} \tfrac{k\pi}{B}(\xi+2Bl)}{\mathrm d}{\xi}\\ & = &\frac{1}{2B} \int_{\mathbb R} \widehat{u}(\xi)\mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}{\mathrm d}{\xi}\\ & = &\frac{\sqrt{2\pi}}{2B} u(-\tfrac{k\pi}{B}). \end{array}$

Also ist die Fourierreihe

$\displaystyle \begin{array}{rcl} \phi(\xi) & = &\sum_{k\in{\mathbb Z}}\langle \phi ,e_k\rangle_{[-B,B]}e_k(\xi)\\ & = &\frac{\sqrt{2\pi}}{2B} \sum_{k\in{\mathbb Z}}u(-\tfrac{k\pi}{B}) \mathrm{e}^{\mathrm{i}\tfrac{k\pi}{B}\xi} \end{array}$

im ${L^2}$-Sinn konvergent, woraus die Behauptung folgt. Andersherum konvergiert obige Fourierreihe, wenn die Koeffizienten ${(u(\frac{k\pi}{B}))_k}$ quadratsummierbar sind und die Behauptung folgt ebenfalls. $\Box$

Bemerkung 12 Im Spezialfall ${\xi=0}$ erhalten wir die bemerkenswerte Formel

$\displaystyle \sum_{k\in{\mathbb Z}}\widehat{u}(2Bk) = \frac{\sqrt{2\pi}}{2B}\sum_{k\in{\mathbb Z}}u(\tfrac{\pi}{B}k), \ \ \ \ \ (1)$

die die Werte von ${u}$ und ${\widehat{u}}$ in Beziehung setzt. Diese lässt sich auch als Aussage über die Fourier-Transformierte des sogenannten Dirac-Kamms auffassen: Der Dirac-Kamm zu ${T>0}$ ist eine (temperierte) Distribution, definiert durch

$\displaystyle \Delta_T(\phi) = \sum_{k\in{\mathbb Z}}\phi(kT)$

(vgl. Aufgabe 16). Die Poisson-Formel gilt insbesondere für Schwartz-Funktionen ${\phi}$, und daher können wir (1) schreiben als

$\displaystyle \Delta_{2B}(\hat\phi) = \frac{\sqrt{2\pi}}{2B}\Delta_{\tfrac{\pi}{B}}(\phi).$

Aus der Definition der Fourier-Transformation für temperierte Distributionen folgt also

$\displaystyle \widehat{\Delta_{2B}} = \frac{\sqrt{2\pi}}{2B}\Delta_{\tfrac{\pi}{B}}.$

Die Fourier-Transformierte eines Dirac-Kamms ist also wieder ein Dirac-Kamm. Insbesondere ist ${\Delta_{\sqrt{2\pi}}}$ ein weiterer Fixpunkt der Fourier-Transformation (neben der Gauß-Funktion).

Nun wenden wir uns genauer dem Abtasten zu. Mit Hilfe von Distributionen formuliert, können wir das diskret mit der Rate ${\tfrac{\pi}{B}}$ abgetastete Signal mit Hilfe eines Dirac-Kamms darstellen:

$\displaystyle u_d = \sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B})\delta_{k\tfrac{\pi}{B}}.$

Ist ${u}$ unendlich oft differenzierbar (und nicht zu schnell wachsend), so ist der Ausdruck für ${u_d}$ genau das Produkt von ${u}$ mit einem Dirac-Kamm:

$\displaystyle u_d = u\Delta_{\tfrac{\pi}{B}}.$

Der Zusammenhang von ${u}$ und ${u_d}$ erschließt sich über die Fourier-Transformation.

Lemma 13 Es gilt für fast alle ${\xi}$

$\displaystyle \widehat{u_d}(\xi) = \frac{B}{\pi} \sum_{k\in{\mathbb Z}} \widehat{u}(\xi+2Bk).$

Beweis: Die Fourier-Transformation von ${\delta_{k\tfrac{\pi}{B}}}$ ist uns schon bekannt

$\displaystyle \widehat{\delta_{k\tfrac{\pi}{B}}}(\xi) = \frac{1}{\sqrt{2\pi}}\mathrm{e}^{-\mathrm{i} \tfrac{k\pi}{B}\xi}.$

Deshalb ist aufgrund der Poisson-Formel (Lemma~11)

$\displaystyle \begin{array}{rcl} \widehat{u_d}(\xi) & = &\frac{1}{\sqrt{2\pi}}\sum_{k\in{\mathbb Z}}u(\tfrac{k\pi}{B})\mathrm{e}^{-\mathrm{i}\tfrac{k\pi}{B}\xi}\\ & = &\frac{B}{\pi} \sum_{n\in{\mathbb Z}} \widehat{u}(\xi+2Bn). \end{array}$

$\Box$

In Worten sagt das Lemma, dass die Fourier-Transformation des abgetasteten Signals einer Periodisierung mit Periode ${2B}$ der Fourier-Transformation des Original-Signals entspricht.

In dieser Sprechweise können wir die Rekonstruktionsformel aus dem Abtasttheorem~9 auch als Faltung interpretieren:

$\displaystyle u(x) = \sum_{k\in{\mathbb Z}} u(\tfrac{k\pi}{B})\mathrm{sinc}(B(x-\tfrac{k\pi}{B})) = u_d*\mathrm{sinc}(B\cdot)(x).$

Auf der Fourier-Seite heißt das formal

$\displaystyle \widehat{u}(\xi) = \widehat{u_d}(\xi) \tfrac{B}{\pi}\chi_{[-B,B]}(\xi).$

Hat ${\widehat{u}}$ seinen Träger im Intervall ${[-B,B]}$, entsteht bei der Periodisierung kein Überlapp und ${\widehat{u_d}\tfrac{B}{\pi} \chi_{[-B,B]}}$ entspricht genau ${\widehat{u}}$.

Hat allerdings ${\widehat{u}}$ einen größeren Träger, so hat der Träger von ${\widehat{u}(\cdot + 2Bk)}$ für mehrere ${k}$ einen Schnitt mit ${[-B,B]}$. Dieses “Zurückklappen” im Frequenzbereich ist für den Alias-Effekt verantwortlich.

Beispiel 14 (Abtasten von harmonischen Schwingungen) \index{index}{Abtasten} Wir betrachten eine harmonische Schwingung

$\displaystyle u(x) = \cos(\xi_0 x) = \frac{\mathrm{e}^{\mathrm{i}\xi_0 x} + \mathrm{e}^{-\mathrm{i}\xi_0 x}}{2}.$

Die Fourier-Transformation ist

$\displaystyle \widehat{u} = \sqrt{\tfrac{\pi}{2}} (\delta_{\xi_0} + \delta_{-\xi_0}).$

Das Signal hat also formal die Bandbreite ${\xi_0}$. Wenn wir eine andere Bandbreite ${B}$ annehmen und das Signal entsprechend mit der Rate ${\pi/B}$ abtasten, erhalten wir auf der Fourier-Seite \begin{equation*} \widehat{u_d} = \tfrac{\pi}{B}\sqrt{\tfrac{\pi}{2}} \sum_{k\in{\mathbb Z}} (\delta_{\xi_0-2kB} + \delta_{-\xi_0-2kB}) \end{equation*} Das Rekonstruieren nach dem Abtasttheorem~9 bedeutet, den Träger von ${\widehat{u_d}}$ auf das Intervall ${[-B,B]}$ einzuschränken. Um zu verstehen, was das für das Signal bedeutet, müssen wir untersuchen, wie sich dieses Einschränken auf die Reihe auswirkt.

• Überabtasten: Nehmen wir eine zu große Bandbreite ${B>\xi_0}$ an, tasten wir das Signal zu schnell ab. Von den Termen in der Reihe für ${\widehat{u_d}}$ liegen genau diejenigen mit ${k=0}$ im Intervall ${[-B,B]}$. Es gilt

$\displaystyle \begin{array}{rcl} \widehat{u_d} & = &\tfrac{\pi}{B}\sqrt{\tfrac{\pi}{2}} \sum_{k\in{\mathbb Z}} (\delta_{\xi_0-2kB} + \delta_{-\xi_0-2kB}) \tfrac{B}{\pi}\chi_{[-B,B]}\\ & = &\sqrt{\tfrac{\pi}{2}} (\delta_{\xi_0} + \delta_{-\xi_0}) = \widehat{u}. \end{array}$

Das heißt, ${u_d= u}$ und wir rekonstruieren das Signal perfekt.

• Unterabtasten: Nehmen wir eine zu kleine Bandbreite ${B<\xi_0<3B}$ an, so tasten wir das Signal zu langsam ab. Von den Termen der Reihe liegen wieder genau zwei im Intervall ${[-B,B]}$, nämlich ${\delta_{\xi_0-2B}}$ und ${\delta_{-\xi_0+2B}}$. Das heißt, es gilt

$\displaystyle \widehat{u_d}\,\tfrac{B}{\pi}\chi_{[-B,B]} = \sqrt{\tfrac{\pi}{2}}(\delta_{\xi_0-2B} + \delta_{-(\xi_0-2B)}).$

Wir rekonstruieren also das Signal

$\displaystyle u_{\text{rek}}(x) = \cos((\xi_0-2B) x).$

Die Rekonstruktion ist wieder eine harmonische Schwingung, aber mit einer anderen Frequenz. Durch Unterabtasten werden hohe Frequenzen ${\xi_0}$ durch niedrige Frequenzen in ${[-B,B]}$ dargestellt.

• Bemerkung 15 (Abtasten in 2D) Eine einfache Verallgemeinerung des Abtasttheorems und der Erklärung des Alias-Effekts in zwei Dimensionen erhalten wir durch Bildung des Tensorproduktes: Es sei ${u:{\mathbb R}^2\rightarrow{\mathbb C}}$ so, dass die Fourier-Transformation ${\widehat{u}}$ ihren Träger in Rechteck ${[-B_1,B_1]\times[-B_2,B_2]}$ hat. In diesem Fall ist ${u}$ durch die Werte ${u(k_1\pi/B_1,k_2\pi/B_2)}$ bestimmt und es gilt die Formel

$\displaystyle u(x_1,x_2) = \sum_{k\in{\mathbb Z}^2}u\bigl(\tfrac{k_1\pi}{B_1},\tfrac{k_2\pi}{B_2}\bigr)\mathrm{sinc}\bigl(B_1(x_1-\tfrac{k_1\pi}{B_1})\bigr)\mathrm{sinc}\bigl(B_2(x_2-\tfrac{k_2\pi}{B_2})\bigr).$

Ein diskret auf einem Rechteckgitter mit den Abtastraten ${T_1}$ und ${T_2}$ abgetastetes Bild schreiben wir als

$\displaystyle u_d = \sum_{k\in{\mathbb Z}^2} u(k_1T_1,k_2T_2)\delta_{(k_1T_1,k_2T_2)}.$

Der Zusammenhang mit dem kontinuierlichen Bild ${u}$ schreibt sich mit der Fourier-Transformation

$\displaystyle \widehat{u_d}(\xi) = \frac{B_1B_2}{\pi^2}\sum_{k\in{\mathbb Z}^2}\widehat{u}(\xi_1+2B_1k_1,\xi_2+2B_2k_2).$

Auch hier tritt der Alias-Effekt auf, falls das Bild nicht bandbeschränkt ist oder zu niedrig abgetastet wurde. Zusätzlich zur Änderung der Frequenz tritt hier auch eine Änderung der Richtung auf.

Beispiel 16 (Unterabtasten, Verhindern des Alias-Effektes) Haben wir ein diskretes Bild ${u_d = \sum_{k\in{\mathbb Z}^2}u_k\delta_k}$ gegeben und wollen die Größe um den Faktor ${l\in{\mathbb N}}$ verringern, so liefert das ${u_d^l = \sum_{k\in{\mathbb Z}}u_{lk}\delta_{lk}}$. Auch bei dieser Unterabtastung erhalten wir wieder einen Alias-Effekt. Um diesen zu verhindern, sollte vor der Unterabtastung ein Tiefpassfilter ${h}$ angewendet werden, um die Frequenzen zu eliminieren, die durch den Alias-Effekt als falsche Frequenzen rekonstruiert werden. Es bietet sich an, diesen Filter als perfekten Tiefpass mit der Breite ${\pi/l}$ zu wählen, d.h.~${\widehat{h} = \chi_{[-\pi/l,\pi/l]^2}}$.

# 2. Abschließende Bemerkungen

Jetzt, wo wir den Vorlesungsstoff hinter uns haben, blicken wir noch einmal auf die vier Transformationen zurück. Es stellt sich heraus, dass sowohl ${\mathcal{Z}}$-Transformation und Fourier-Reihen, als auch bei Laplace-Transformation und Fourier-Transformation jeweils eng zusammenhängen:

• ${\mathcal{Z}}$-Transformation: ${f_n:{\mathbb Z}\rightarrow{\mathbb C}}$ mit “exponentiellem Abfallverhalten bei ${\pm\infty}$”:

$\displaystyle \mathcal{Z}(f)(z) = \sum_{k\in{\mathbb Z}} f_n z^{-n}$

Konvergent im Kreisring ${r<|z|.

Inversion: ${r<\rho:

$\displaystyle f_n = \frac{1}{2\pi\mathrm{i}}\int_{|z|=\rho}\mathcal{Z}(f)(z)z^{n-1}{\mathrm d}{z} = \frac{1}{2\pi}\int_{-\pi}^\pi \mathcal{Z}(f)(\rho\mathrm{e}^{\mathrm{i} t})\rho^n\mathrm{e}^{\mathrm{i} nt}{\mathrm d}{t}.$

• Fourier-Reihe: ${f:[-\pi,\pi]\rightarrow{\mathbb C}}$

$\displaystyle c_k = \frac{1}{2\pi}\int_{-\pi}^\pi f(t)\mathrm{e}^{-\mathrm{i} kt}{\mathrm d}{t}.$

“Inversion”:

$\displaystyle f(t) = \sum_{k\in{\mathbb Z}} c_k \mathrm{e}^{\mathrm{i} k t}$

Ist also ${r<1, dann gilt

$\displaystyle \mathcal{Z}(c_k)(\mathrm{e}^{-\mathrm{i} t}) = f(t),$

mit anderen Worten: Die ${\mathcal{Z}}$-Transformation entlang des Einheitskreises entspricht der Fourier-Reihe.

Anstelle des Abfallverhaltens der Folge ${f_n}$ bei der ${\mathcal{Z}}$-Transformation tritt bei den Fourier-Reihen eine “Summierbarkeitsbedingung” an die Fourier-Koeffizienten. Als Konsequenz erhält man nicht immer eine Funktion, die sich komplex-differenzierbar über den Einheitskreis hinaus fortsetzen lässt, dafür ist die Konvergenz auf dem Einheitskreis auf verschiedene Arten nachweisbar (z.B. punktweise oder in ${L^2}$).

• Laplace-Transformation: ${f:[0,\infty[\rightarrow{\mathbb C}}$ “Original”, exponentiell beschränkt.

$\displaystyle \mathcal{L}(f)(s) = \int_0^\infty f(t)\exp(-st){\mathrm d}{t},$

gültig für ${\mathrm{Re}(s)>\sigma_0(f)}$.

• Fourier-Transformation: ${f:{\mathbb R}\rightarrow{\mathbb C}}$ integrierbar (z.B. in ${L^1({\mathbb R})}$).

$\displaystyle \mathcal{F}(f)(\xi) = \frac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty f(x)\exp(-\mathrm{i} x\xi){\mathrm d}{x}.$

Ist ${\sigma_0(f)<0}$, so gilt (mit ${f(t)=0}$ für ${t<0}$)

$\displaystyle \mathcal{F}(f)(\xi) = \frac{1}{\sqrt{2\pi}}\mathcal{L}(f)(\mathrm{i}\xi).$

Mit anderen Worten: Die Laplace-Transformation entlang der imaginären Achse ist die Fourier-Transformation.

Ebenso wie beim Zusammenhang von ${\mathcal{Z}}$-Transformation und Fourier-Reihen ist wird “Abfallverhalten bei ${\infty}$” für die Laplace-Transformation durch Integrierbarkeitsanforderungen bei der Fourier-Transformation ersetzt. Es handelt sich auch hier (ebenso wie oben) um zwei verschiedenen Zugänge zu fast identischen Transformationen. Im Fall der Laplace-Transformation ermöglicht die exponentielle Beschränkung, dass es sich bei der Transformierten um eine komplex differenzierbare Funktion handelt. Im Fall der Fourier-Transformation erhält man kaum Regularität der Transformierten, aber dafür (im ${L^2}$-Fall) die gleiche Art der Integrierbarkeit und damit eine praktische Symmetrie von Hin- und Rücktransformation.

• This is the second to last set of notes of my lecture on integral transforms.

# 1. Die Fourier-Transformation

Die Laplace-Transformation ist “einseitig” in dem Sinne, dass sie für Funktionen auf der Halbachse ${[0,\infty{[}}$ definiert ist. Analog zur ${z}$-Transformation ließe sich auch eine zweiseitige Transformation definieren: Für ${f:{\mathbb R}\rightarrow{\mathbb C}}$ sei

$\displaystyle \mathcal{L}_2(f)(s) = \int_{-\infty}^\infty f(t)\exp(-st){\mathrm d}{t}.$

Für die einseitige Transformation haben wir im vorherigen Abschnitt den Wachstumsindex ${\sigma_0(f)}$ definiert um die Konvergenzhalbebene der Transformierten zu beschreiben. Untersuchen wir, unter welchen Bedingungen das Integral in der zweiseitigen Transformierten existiert. Dazu spalten wir das Integral (willkürlich) an der Stelle ${t=0}$ auf (die Aufspaltung an einer anderen Stelle würde zum gleichen Ergebnis kommen) und stellen die zweiseitige Transformation mit Hilfe der Heaviside-Funktion ${H}$ als Summe zweier einseitiger dar:

$\displaystyle \begin{array}{rcl} \int_{-\infty}^\infty f(t)\exp(-st){\mathrm d}{t} &=& \int_{0}^\infty f(t)\exp(-st){\mathrm d}{t} + \int_0^\infty f(-t)\exp(st){\mathrm d}{t}\\ &=& \mathcal{L}(H(t)\cdot f(t))(s) + \mathcal{L}( H(t)\cdot f(-t))(-s) \end{array}$

Mit Hilfe der Wachstumsindizes ${\sigma_0(H(t)f(t))}$ uns ${\sigma_0(H(t)f(-t))}$ erkennen wir, dass die zweiseitige erste Transformierte für ${\mathrm{Re}(s)>\sigma_0(H(t)f(t))}$ und die zweite für ${\mathrm{Re}(-s) > \sigma_0(H(t)f(-t))}$ existiert. Also existiert die zweiseitige Transformation auf dem Streifen

$\displaystyle \sigma_0(H(t)f(t)) <\mathrm{Re}(s)<-\sigma_0(H(t)f(-t)).$

Schauen wir uns diesen Streifen einmal in ein paar konkreten Beispielen an:

Beispiel 1

1. Wir betrachten ${f(t) = \exp(-|t|)}$. In diesem Fall haben wir ${\sigma_0(H(t)f(t)) = \sigma_0(H(t)f(-t)) = -1}$ (das Verhalten von ${f(t)}$ und ${f(-t)}$ ist gleich und sogar exakt exponentiell) und die zweiseitige Laplace Transformation existiert für ${-1<\mathrm{Re}(s)<1}$. Wir berechnen

$\displaystyle \begin{array}{rcl} \mathcal{L}_2(f)(s) &=& \int_{-\infty}^\infty \exp(-|t|)\exp(-ts){\mathrm d}{t}\\ &=& \int_{0}^\infty \exp(-t)\exp(-ts){\mathrm d}{t}\\ &&\qquad+\int_{-\infty}^0\exp(t)\exp(-ts){\mathrm d}{t}\\ &=& \Big[\frac{\exp(-t(s+1)}{s+1}\Big]_{0}^\infty + \Big[\frac{\exp(-t(s-1)}{s-1}\Big]_{-\infty}^0\\ &=& -\frac{1}{s+1} + \frac{1}{s-1} = \frac{2}{s^2-1}. \end{array}$

In der Tat ist ${\mathcal{L}_2(f)(s)}$ eine komplex differenzierbare Funktion mit Polen in ${s=\pm 1}$ welche genau an den Grenzen des Konvergenzbereiches liegen.

2. Wir betrachten ${f(t) = 1/(1+t^2)}$ in diesem Fall haben wir weder bei ${\infty}$ noch bei ${-\infty}$ exponentielles Abfallverhalten; es gilt

$\displaystyle \sigma_0(H(t)f(t)) = \sigma_0(H(t)f(-t)) = 0,$

der Konvergenzbereich ${0<\mathrm{Re}(s)<0}$ ist also leer. Im Fall ${\mathrm{Re}(s) = 0}$, also für ${s = \mathrm{i} \omega}$ mit ${\omega\in{\mathbb R}}$, gilt allerdings

$\displaystyle \Big|\int_{-\infty}^\infty \frac{\exp(-\mathrm{i}\omega t)}{1+t^2}{\mathrm d}{t}\Big|\leq \int_{-\infty}^\infty \frac{1}{1+t^2}{\mathrm d}{t} = \pi.$

Das Integral existiert also doch auf der gesamten Linie ${\mathrm{Re}(s) = 0}$.

Das Phänomen im zweiten Teil des Beispiels ist in der Tat keine besondere Ausnahme: Für beschränkte Funktionen, die nicht exponentiell schnell bei ${\infty}$ und ${-\infty}$ abfallen gilt immer ${\sigma_0(H(t)f(t)) = \sigma_0(H(t)f(-t)) = 0}$, trotzdem kann das Integral auf der ganzen Linie ${\mathrm{Re}(s) = 0}$ existieren, falls die Funktion ${f}$ absolut integrierbar ist: Wie oben ergibt sich nämlich

$\displaystyle \Big|\int_{\mathbb R} f(x)\exp(-\mathrm{i}\omega x){\mathrm d}{x}\Big| \leq \int_{\mathbb R} |f(x)|{\mathrm d}{x}<\infty.$

Genau dies führt uns auf die Fourier-Transformation. Bevor wir diese definieren, führen wir noch schnell die ${L^p}$-Räume ein, da wir sie in diesen Abschnitt häufiger benötigen:

Definition 2 Für ${1\leq p<\infty}$ und ${d=1,2\dots}$ ist der Raum ${L^p({\mathbb R}^d)}$ von Funktionen ${f:{\mathbb R}^d\rightarrow{\mathbb C}}$ definiert durch

$\displaystyle f\in L^p({\mathbb R}^d)\ \text{ falls } \int_{{\mathbb R}^d} |f(x)|^p{\mathrm d}{x}<\infty.$

Für ${p=\infty}$ definiert man

$\displaystyle f\in L^\infty({\mathbb R}^d)\ \text{ falls } \sup_{x\in{\mathbb R}^d} |f(x)|<\infty.$

Das stimmt nicht ganz – korrekterweise besteht der Raum ${L^p({\mathbb R}^d)}$ aus Äquivalenzklassen von messbaren Funktionen, die fast überall übereinstimmen und deren Repräsentanten entsprechend integrierbar sind. Im Fall ${p=\infty}$ muss man eigentlich das wesentliche Supremum nehmen. Diese Feinheit spielt für unseren Alltag in der Vorlesung keine große Rolle. Man muss im Wesentlichen nur beachten, dass ${L^p}$-Funktionen nur fast überall bestimmt sind (und so zum Beispiel keine Punktauswertung erlauben). Die ${L^p}$-Räume sind Vektorräume und mit den Normen

$\displaystyle \|f\|_p = \Big( \int_{{\mathbb R}^d} |f(x)|^p{\mathrm d}{x}\Big)^{1/p},\quad \|f\|_\infty = \sup |f(x)|$

sogar Banach-Räume (hierbei ist die Bildung von Äquivalenzklassen wichtig, da es sich sonst nicht um Normen handelt: für ${p<\infty}$ gibt es zum Beispiel sonst Funktionen außer ${f\equiv 0}$ deren Norm Null ist). Der Raum ${L^2({\mathbb R}^d)}$ ist mit dem Skalarprodukt

$\displaystyle \langle f,g\rangle = \int_{{\mathbb R}^d} f(x)\overline{g(x)}{\mathrm d}{x}$

ein Hilbert-Raum.

## 1.1. Die Fourier-Transformation auf ${L^1({\mathbb R}^d)}$

Für Funktionen ${f:{\mathbb R}\rightarrow{\mathbb C}}$ haben wir schon oben gesehen, dass für absolut integrierbare Funktion (oder anders ausgedrückt, für ${f\in L^1({\mathbb R})}$) das Integral ${\int_{-\infty}^\infty f(t)\exp(-\mathrm{i}\omega t){\mathrm d}{t}}$ für alle ${\omega\in{\mathbb R}}$ konvergiert. Diese Formel gibt (bis auf eine Konstante) bereits die Fourier-Transformierte. Anders als bei der Laplace-Transformation lässt sich die Fourier-Transformation ohne Probleme auch für Funktionen ${u:{\mathbb R}^d\rightarrow{\mathbb C}}$ definieren und da dies keinerlei Umstände bereitet machen wir das. Für ${x,y\in{\mathbb R}^d}$ bezeichen wir mit ${x\cdot y = \sum_{i=1}^d x_i y_i}$ das Euklidische Skalarprodukt, mit ${|x| = \sqrt{x_1^2+\cdots + x_d^2}}$ bezeichnen wir den Euklidischen Betrag.

Definition 3 (Fourier-Transformation) Sei ${u\in L^1({\mathbb R}^d)}$ und ${\xi \in {\mathbb R}^d}$. Dann ist die Fourier-Transformierte von ${u}$ in ${\xi}$ definiert durch

$\displaystyle \mathcal{F}(u)(\xi) = \widehat{u}(\xi) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}.$

Die Abbildung ${\mathcal{F}: u\mapsto \widehat{u}}$ nennen wir Fourier-Transformation.

Im Unterschied zur Laplace-Transformation enthält die Fourier-Transformation noch einen Normierungsfaktor ${(2\pi)^{-d/2}}$; seine Bedeutung werden wir später genauer verstehen.

Lemma 4 Die Fourier-Transformation ist als Abbildung von ${L^1({\mathbb R}^d)}$ in den Raum ${C({\mathbb R}^d)}$ der stetigen Funktionen (versehen mit der Supremumsnorm ${\|\cdot\|_\infty}$), also ${\mathcal{F}:L^1({\mathbb R}^d)\rightarrow C({\mathbb R}^d)}$, wohldefiniert, linear und stetig.

Beweis: Der Integrand in der Fourier-Transformation ist für fast alle ${x}$ stetig in ${\xi}$ und für fast alle ${\xi}$ durch ${|u(x)|}$ beschränkt. Es folgt nach dem Satz der dominierten Konvergenz für ${\xi_n\rightarrow\xi}$:

$\displaystyle \lim_{n\rightarrow\infty}\int_{{\mathbb R}^d} u(x) \mathrm{e}^{-\mathrm{i} x\cdot \xi_n}{\mathrm d}{x} = \int_{{\mathbb R}^d} u(x) \mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x},$

also

$\displaystyle \lim_{n\rightarrow\infty}\widehat{u}(\xi_n) = \widehat{u}(\xi)$

und damit die Stetigkeit von ${\widehat{u}}$. Die Linearität von ${\mathcal{F}}$ ist klar und die Stetigkeit folgt aus der Abschätzung

$\displaystyle |\widehat{u}(\xi)| = \frac{1}{(2\pi)^{d/2}}\Big|\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}\Big| \leq \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}|u(x)|{\mathrm d}{x} = \frac{1}{(2\pi)^{d/2}}\|u\|_1.$

Es folgt ${\|\widehat{u}\|_\infty\leq \frac{1}{(2\pi)^{d/2}}\|u\|_1}$. $\Box$

Insbesondere sind Fouriertransformierte von ${L^1}$-Funktionen beschränkt.

Bemerkung 5 (Alternative Definitionen der Fourier-Transformation) Es werden andere Definitionen der Fourier-Transformation benutzt die sich in der Normierung unterscheiden. Gebräuchlich sind zum Beispiel folgende Varianten:

$\displaystyle \begin{array}{rcl} \mathcal{F}(u)(\xi) & = &\frac{1}{(2\pi)^d}\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}\\ \mathcal{F}(u)(\xi) & = &\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-\mathrm{i} x\cdot \xi}{\mathrm d}{x}\\ \mathcal{F}(u)(\xi) & = &\int_{{\mathbb R}^d}u(x)\mathrm{e}^{-2\pi\mathrm{i} x\cdot \xi}{\mathrm d}{x}. \end{array}$

Weiterhin kann auch das Minuszeichen im Exponenten weggelassen sein. So ist beim Gebrauch von Tabellen von Fouriertransformierten Vorsicht geboten, ebenso wie beim Nachschlagen von Rechenregeln.

Die Fourier-Transformation verträgt sich gut mit Verschiebungen ${V_y}$, mit linearen Koordinatentransformationen ${D_A}$ und mit Modulationen ${M_\omega}$. Verschiebungen kennen wir schon, lineare Koordinatentransformationen und Modultationen definieren wir nun:

Definition 6 Zu ${A\in{\mathbb R}^{d\times d}}$ definieren wir

$\displaystyle d_A:{\mathbb R}^d\rightarrow{\mathbb R}^d,\qquad d_A(x) = Ax$

und damit

$\displaystyle D_A u = u\circ d_A,$

d.h. ${D_A u(x) = u(Ax)}$. Zu ${y\in{\mathbb R}^d}$ definieren wir

$\displaystyle m_y:{\mathbb R}^d\rightarrow {\mathbb C},\qquad m_y(x) = \mathrm{e}^{\mathrm{i} x\cdot y}$

und

$\displaystyle M_y u = m_y \cdot u$

d.h. ${M_y u(x) = \mathrm{e}^{\mathrm{i} x\cdot y}u(x)}$.

Die linearen Koordinatentransformationen hatten wir schon im vorherigen Abschnitt als Skalierung kennengelernt: Für die Einheitsmatrix ${\mathrm{Id}\in{\mathbb R}^{d\times d}}$ und ${a\in{\mathbb R}}$ gilt ${D_{a\mathrm{Id}}u (x) = u(ax)}$. Auch die Spiegelung von ${u}$ lässt sich durch lineare Koordinatentransformation schreiben als ${D_{-\mathrm{Id}}u(x) = u(-x)}$.

Wir sich Verschiebung, Modulation, Koordinatentransformation und Konjugation mit der Fourier-Transformation vertragen, sammelt das folgende Lemma.

Lemma 7 Es sei ${u\in L^1({\mathbb R}^d)}$, ${y\in{\mathbb R}^d}$ und ${A\in {\mathbb R}^{d\times d}}$ eine reguläre Matrix. Dann gelten folgende Gleichungen:

$\displaystyle \begin{array}{rcl} \mathcal{F}(V_y u) & =& M_{-y}\mathcal{F}(u)\\ \mathcal{F}(M_y u) & =& V_y\mathcal{F}(u)\\ \mathcal{F}(D_A u) & =& |\det A|^{-1}D_{A^{-T}}\mathcal{F}(u)\\ \mathcal{F}(\overline{u}) & =& \overline{D_{-\mathrm{Id}}\mathcal{F}(u)}. \end{array}$

Beweis: Zuerst überzeuge man sich davon, dass die Operatoren ${V_y}$, ${M_y}$ und ${D_A}$ sowohl ${L^1({\mathbb R}^d)}$ als auch ${C({\mathbb R}^d)}$ in sich selbst abbilden; es sind also alle auftretenden Ausdrücke wohldefiniert. Nach der Transformationsformel für Integrale gilt

$\displaystyle \begin{array}{rcl} \mathcal{F}(M_\omega V_y u)(\xi) & =& \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} u(x-y)\mathrm{e}^{-\mathrm{i} x\cdot (\xi-\omega)}{\mathrm d}{x}\\ & = &\frac{1}{(2\pi)^{d/2}}\mathrm{e}^{-\mathrm{i} (\xi-\omega)\cdot y}\int_{{\mathbb R}^d}u(z)\mathrm{e}^{-\mathrm{i} z\cdot (\xi-\omega)}{\mathrm d}{z}\\ & = &V_{\omega}M_{-y}\mathcal{F} (u)(\xi). \end{array}$

Mit ${\omega=0}$ folgt die Translationsformel, mit ${y=0}$ die Modulationsformel. Die Formel für die lineare Koordinatentransformation folgt ebenso direkt aus der Transformationsformel für Integrale und die Formel für die Konjugation erhält man elementar. $\Box$

Wie die ${z}$-Transformation und die Laplace-Transformation erfüllt auch die Fourier-Transformation einen Faltungssatz:

Satz 8 (Faltungssatz) Für ${u,v\in L^1({\mathbb R}^d)}$ gilt

$\displaystyle \mathcal{F}(u* v) = (2\pi)^{d/2}\mathcal{F}(u)\mathcal{F}(v).$

Beweis: Wir wenden den Satz von Fubini an:

$\displaystyle \begin{array}{rcl} \mathcal{F}(u* v)(\xi) & =& \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}\int_{{\mathbb R}^d} u(y) v(x-y){\mathrm d}{y}\:\mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & =& \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}\int_{{\mathbb R}^d} u(y) \mathrm{e}^{-\mathrm{i} y\cdot\xi}v(x-y)\mathrm{e}^{-\mathrm{i} (x-y)\cdot\xi}{\mathrm d}{x}{\mathrm d}{y}\\ & =& \int_{{\mathbb R}^d}u(y)\mathrm{e}^{-\mathrm{i} y\cdot\xi}{\mathrm d}{y}\ \mathcal{F}(v)(\xi)\\ & =& (2\pi)^{d/2}\mathcal{F}(u)(\xi)\mathcal{F}(v)(\xi). \end{array}$

$\Box$

Ganz analog zum Faltungssatz kann man folgendes Lemma beweisen:

Lemma 9 Für ${u,v\in L^1({\mathbb R}^d)}$ gilt

$\displaystyle \int_{{\mathbb R}^d}\widehat{u}(\xi) v(\xi){\mathrm d}{\xi} = \int_{{\mathbb R}^d}u(\xi)\widehat{v}(\xi){\mathrm d}{\xi}.$

An dieser Stelle ist es verlockend, die Aussage des Lemmas als Gleichung von Skalarprodukten zu schreiben. Nach Lemma~7 wäre:

$\displaystyle \begin{array}{rcl} \langle\widehat{u},v\rangle &=& \int_{{\mathbb R}^d} \widehat{u}(\xi)\overline{v}(\xi){\mathrm d}{\xi} = \int_{{\mathbb R}^d} u(\xi)\widehat{\overline{v}}(\xi){\mathrm d}{\xi}\\ &=&\int_{{\mathbb R}^d} u(\xi)\overline{\widehat{v}(-\xi)}{\mathrm d}{\xi} = \langle u,D_{-\mathrm{Id}}\widehat{v}\rangle. \end{array}$

Dies ist allerdings an dieser Stelle nicht erlaubt, da wir die Fourier-Transformation in Definition~3 nur für ${L^1}$-Funktionen definiert haben. Dies hatte auch seinen guten Grund, denn für ${L^2}$-Funktionen kann nicht ohne weiteres gesichert werden, dass das definierende Integral existiert. Es erscheint jedoch wünschenswert und wird sich als überaus hilfreich herausstellen, die Fourier-Transformation nicht nur auf dem (nicht einmal reflexiven) Banach-Raum ${L^1({\mathbb R}^d)}$ sondern auf dem Hilbert-Raum ${L^2({\mathbb R}^d)}$ zur Verfügung zu haben.

## 1.2. Die Fourier-Transformation auf ${\mathcal{S}({\mathbb R}^d)}$ und ${L^2({\mathbb R}^d)}$

Die Fortsetzung der Fourier-Transformation auf den Raum ${L^2({\mathbb R}^d)}$ erfordert einige Arbeit. Als ersten Schritt untersuchen wir die Fourier-Tranformation auf dem Schwartz-Raum und es wird sich herausstellen, dass dieser ganz besonders gut zur Fourier-Transformation passt. Wir erinnern hier noch einmal an die Definition des Schwartz-Raumes und definieren ihn hier auf ${{\mathbb R}^d}$. Dazu benutzen wir die praktische Multiindexschreibweise:

Definition 10 Ein Multiindex ${\alpha}$ ist ein Vektor von natürlichen Zahlen. Zu ${\alpha = (\alpha_1,\dots,\alpha_d)\in{\mathbb N}^d}$ und ${x = (x_1,\dots,x_d)\in{\mathbb C}^d}$ schreiben wir

$\displaystyle x^\alpha = x_1^{\alpha_1}\cdots x_d^{\alpha_d}.$

Die ${k}$-te Komponente des Vektors ${\alpha}$ enthält also die Potenz der ${k}$-ten Koordinate. Für eine Funktion ${u:{\mathbb R}^d\rightarrow{\mathbb C}}$ schreiben wir

$\displaystyle \frac{\partial^\alpha}{\partial x^\alpha} f(x) = \frac{\partial^{\alpha_1}}{\partial x_1^{\alpha_1}}\cdots\frac{\partial^{\alpha_d}}{\partial x_d^{\alpha_d}} f(x).$

Die ${k}$-te Komponente des Vektors ${\alpha}$ sagt also, wie oft in die ${k}$-te Koordinatenrichtung abgeleitet wird. Die Notation ${\partial^\alpha}$ anstelle von ${\frac{\partial^\alpha}{\partial x^\alpha}}$ ist ebenso gebräuchlich. Die Ordnung eines Multiindexes ${\alpha}$ ist ${|\alpha| = \sum_{k=1}^d \alpha_k}$. Entsprechend sagt man auch, dass das Polynom ${x^\alpha}$ den Grad ${|\alpha|}$ hat und spricht von ${\partial^\alpha f}$ auch von einer ${|\alpha|}$-ten Ableitung von ${f}$.

Mit Multiindizes lässt sich einfach rechnen, und sie verhalten sich im Wesentlichen wie einfache Indizes. So gilt zum Beispiel

$\displaystyle \begin{array}{rcl} x^\alpha\, x^\beta &=& x_1^{\alpha_1}\cdots x_d^{\alpha_d} x_1^{\beta_1}\cdots x_d^{\beta_d} = x_1^{\alpha_1+\beta_1}\cdots x_d^{\alpha_d+\beta_d}\\ &=& x^{(\alpha+\beta)} \end{array}$

und ebenso

$\displaystyle \partial^\alpha\partial^\beta f(x) = \partial^{\alpha+\beta} f(x).$

Definiert man noch die Fakultät ${\alpha! = \alpha_1!\cdots\alpha_d!}$ und für ${\beta\leq\alpha}$ (was nichts anderes als ${\beta_k\leq\alpha_k}$, ${k=1,\dots,d}$ heißen soll) die Binomialkoeffizienten ${\binom{\alpha}{\beta}= \frac{\alpha!}{\beta!(\alpha-\beta)!}}$, so gelten zum Beispiel der Binomische Lehrsatz

$\displaystyle (x+y)^\alpha = \sum_{\beta\leq\alpha}\binom{\alpha}{\beta}x^\beta y^{\alpha-\beta}$

und die Leibniz-Regel

$\displaystyle \partial^\alpha(f\cdot g)(x) = \sum_{\beta\leq\alpha}\binom{\alpha}{\beta}(\partial^\beta f(x))\cdot(\partial^{\alpha-\beta} g(x)).$

Definition 11 Zu Multiindizes ${\alpha,\beta\in {\mathbb N}^d}$ definieren wir die Funktionale

$\displaystyle C_{\alpha,\beta}(u) = \sup_{x\in{\mathbb R}^d}|x^\alpha\tfrac{\partial^\beta}{\partial x^\beta} u(x)|.$

Der Schwartz-Raum der schnell fallenden Funktionen ist definiert durch

$\displaystyle \mathcal{S}({\mathbb R}^d) = \{u\in C^\infty({\mathbb R}^d)\ :\ \forall \alpha,\beta\in{\mathbb N}^d: C_{\alpha,\beta}(u) <\infty\}.$

Funktionen ${u\in\mathcal{S}({\mathbb R}^d)}$ heißen auch Schwartz-Funktionen.

Der Konvergenzbegriff auf dem Schwartz-Raum ist uns ebenfalls schon aus dem vorigen Abschnitt bekannt. Wir formulieren ihn hier noch einmal mit Hilfe der Funktionale ${C_{\alpha,\beta}}$:

Definition 12 Eine Folge ${(u_n)}$ im Schwartz-Raum konvergiert gegen ${u}$ genau dann, wenn für alle Multiindizes ${\alpha,\beta}$ gilt

$\displaystyle C_{\alpha,\beta}(u_n-u)\rightarrow 0\quad\text{f\"ur}\quad n\rightarrow\infty.$

Bemerkung 13 Für unsere Zwecke ist die Beschreibung der Topologie ${\mathcal{S}({\mathbb R}^d)}$ durch Folgenkonvergenz ausreichend. Es sei bemerkt, dass die Funktionale ${C_{\alpha,\beta}}$ sogenannte Halbnormen auf dem Schwartz-Raum bilden und ihn damit zu einem metrisierbaren, lokal-konvexen Raum machen, welcher sogar ein Fréchet-Raum ist.

Lemma 14 Der Schwartz-Raum ist nichtleer und abgeschlossen bezüglich Ableitungen beliebiger Ordnung sowie punktweiser Multiplikation.

Beweis: Ein Beispiel für eine Funktion in ${\mathcal{S}({\mathbb R}^d)}$ ist ${u(x) = \exp(-|x|^2)}$ wie sich elementar zeigen lässt. Ist ${u\in\mathcal{S}({\mathbb R}^d)}$, so gilt für jeden Multiindex ${\gamma}$

$\displaystyle C_{\alpha,\beta}(\tfrac{\partial^\gamma}{\partial x^\gamma} u) = C_{\alpha,\beta+\gamma}(u)<\infty$

und daher ${\tfrac{\partial^\gamma}{\partial x^\gamma} u\in\mathcal{S}({\mathbb R}^d)}$. Dass mit ${u,v\in\mathcal{S}({\mathbb R}^d)}$ auch das Produkt ${uv}$ im Schwartz-Raum liegt, zeigt die Leibnizsche Produktregel denn dann gilt

$\displaystyle \partial^\alpha(u v)(x) = \sum_{\beta\leq\alpha}\binom{\alpha}{\beta} \partial^{\alpha-\beta}u(x) \partial^\beta v(x).$

Es folgt

$\displaystyle \begin{array}{rcl} C_{\alpha,\beta}(u v) &=& \sup|x^\alpha\partial^\beta(uv)(x)|\\ &=& \sup|x^\alpha\sum_{\gamma\leq\beta}\binom{\beta}{\gamma} \partial^{\gamma}u(x) \partial^{\beta-\gamma}v(x)|\\ &=& \sum_{\gamma\leq\beta}\binom{\beta}{\gamma} \sup|x^\alpha \partial^{\gamma}u(x) \partial^{\beta-\gamma}v(x)|\\ &=& \sum_{\gamma\leq\beta}\binom{\beta}{\gamma} C_{\alpha,\gamma}(u)C_{0,\beta-\gamma}(v)<\infty. \end{array}$

$\Box$

Der Schwartz-Raum ist in gewisser Weise besonders für die Fourier-Transformation geeignet. Einen ersten Hinweis darauf gibt das folgende Lemma.

Lemma 15 Es sei ${u\in\mathcal{S}({\mathbb R}^d)}$, ${\alpha\in{\mathbb N}^d}$ ein Multiindex und es bezeichne ${p^\alpha(x) = x^\alpha}$. Dann gelten die Gleichungen

$\displaystyle \begin{array}{rcl} \mathcal{F}(\tfrac{\partial^\alpha u}{\partial x^\alpha}) & = &\mathrm{i}^{|\alpha|}p^\alpha\mathcal{F}(u)\\ \mathcal{F}(p^\alpha u) & = &\mathrm{i}^{|\alpha|} \tfrac{\partial^\alpha}{\partial x^\alpha}\mathcal{F}(u). \end{array}$

Beweis: Wir beginnen mit folgenden Hilfsrechnungen:

$\displaystyle \frac{\partial^\alpha}{\partial x^\alpha}(\mathrm{e}^{-\mathrm{i} x\cdot\xi}) = (-\mathrm{i})^{|\alpha|}\xi^\alpha\mathrm{e}^{-\mathrm{i} x\cdot \xi} \quad\text{und}\quad x^\alpha\mathrm{e}^{-\mathrm{i} x\cdot\xi} = \mathrm{i}^{|\alpha|}\frac{\partial^\alpha}{\partial \xi^\alpha} (\mathrm{e}^{-\mathrm{i} x\cdot \xi}).$

Mit Hilfe partieller Integration erhalten wir

$\displaystyle \begin{array}{rcl} \mathcal{F}(\tfrac{\partial^\alpha}{\partial x^\alpha} u)(\xi) & =& \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} \tfrac{\partial^\alpha}{\partial x^\alpha} u(x) \mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & = &\frac{1}{(2\pi)^{d/2}}\mathrm{i}^{|\alpha|}\xi^\alpha\int_{{\mathbb R}^d} u(x) \mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & = &\mathrm{i}^{|\alpha|}p^\alpha(\xi)\mathcal{F} u (\xi). \end{array}$

Durch Vertauschen von Integration und Differentiation ergibt sich

$\displaystyle \begin{array}{rcl} \mathcal{F}(p^\alpha u)(\xi) & = &\frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} u(x)x^\alpha \mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & =& \frac{1}{(2\pi)^{d/2}}\mathrm{i}^{|\alpha|}\int_{{\mathbb R}^d} u(x)\tfrac{\partial^\alpha}{\partial\xi^\alpha}\mathrm{e}^{-\mathrm{i} x\cdot\xi}{\mathrm d}{x}\\ & =& \mathrm{i}^{|\alpha|}(\tfrac{\partial^\alpha}{\partial\xi^\alpha}\mathcal{F} u)(\xi). \end{array}$

Beide vorangehenden Argumente sind erlaubt, da die Integranden bezüglich ${\xi}$ beliebig oft differenzierbar und bezüglich ${x}$ integrierbar sind. $\Box$

Wir sehen also, dass die Fourier-Transformation eine Differentiation in eine Multiplikation überführt und andersherum. Dies lässt schon vermuten, dass der Schwartz-Raum ${\mathcal{S}({\mathbb R}^d)}$ durch die Fourier-Transformation in sich selbst überführt wird. Bevor wir dies zeigen, beweisen wir noch zwei Lemmas. Im ersten berechnen wir die Fourier-Transformierte der Gauß-Funktion:

Lemma 16 Für die Gauß-Funktion ${G(x)= \mathrm{e}^{-\tfrac{|x|^2}{2}}}$ gilt

$\displaystyle \widehat{G}(\xi) = G(\xi),$

das heißt, die Gauß-Funktion ist eine Eigenfunktion der Fourier-Transformation zum Eigenwert eins.

Beweis: Die Gauß-Funktion lässt sich als Tensorprodukt von eindimensionalen Gauß-Funktionen ${g:{\mathbb R}\rightarrow{\mathbb R}}$, ${g(t) = \exp(-t^2/2)}$ schreiben: ${G(x) = \prod_{k=1}^dg(x_k)}$. Mit dem Satz von Fubini erhalten wir

$\displaystyle \widehat{G}(\xi) = \frac{1}{(2\pi)^{d/2}} \int_{{\mathbb R}^d}\prod_{k=1}^dg(x_k)\mathrm{e}^{-\mathrm{i} x_k\xi_k}{\mathrm d}{x} = \prod_{k=1}^d\widehat{g}(\xi_k).$

Um die Fourier-Transformierte von ${g}$ zu bestimmen, bemerken wir, dass ${g}$ der Differentialgleichung ${g'(t) = -tg(t)}$ genügt. Wenden wir die Fourier-Transformation auf diese Gleichung an, erhalten wir mit Hilfe von Lemma~15 die Differentialgleichung ${-\omega \widehat{g}(\omega) = \widehat{g}'(\omega)}$. Weiterhin gilt ${\widehat{g}(0) = \tfrac{1}{\sqrt{2\pi}}\int_{\mathbb R} g(t){\mathrm d}{t} = 1 = g(0)}$. Die Funktionen ${g}$ und ${\widehat{g}}$ erfüllen also die gleiche Differentialgleichung mit dem gleichen Anfangswert und müssen also nach dem Satz von Picard-Lindelöf gleich sein. Dies zeigt die Behauptung. $\Box$

Wir wenden uns nun der Tatsache zu, dass die Fourier-Transformation den Schwartz-Raum bijektiv und stetig in sich abbildet.

Satz 17 Die Fourier-Transformation ist eine stetige und bijektive Abbildung des Schwartz-Raumes in sich. Für ${u\in\mathcal{S}({\mathbb R}^d)}$ gilt die Inversionsformel

$\displaystyle (\mathcal{F}^{-1} \mathcal{F} u)(x) = \check{\widehat{u}}(x) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}\widehat{u}(\xi)\mathrm{e}^{\mathrm{i} x\cdot\xi}{\mathrm d}{\xi} = u(x).$

Beweis: Nach Lemma~15 gilt für jedes ${\xi}$

$\displaystyle C_{\alpha,\beta}(\hat{u}) = |\xi^\alpha\tfrac{\partial^\beta}{\partial\xi^\beta} \widehat{u}(\xi)| = |\mathcal{F}(\tfrac{\partial^\alpha}{\partial x^\alpha}(p^\beta u))(\xi)| \leq \frac{1}{(2\pi)^{d/2}}\|\tfrac{\partial^\alpha}{\partial x^\alpha}(p^\beta u)\|_1. \ \ \ \ \ (1)$

Also ist mit ${u\in\mathcal{S}({\mathbb R}^d)}$ auch ${\widehat{u}\in\mathcal{S}({\mathbb R}^d)}$. Da die Fourier-Transformation linear ist, reicht es, die Stetigkeit in Null zu zeigen. Wir betrachten also eine Nullfolge ${(u_n)}$ im Schwartz-Raum, d.h.~für ${n\rightarrow\infty}$ gilt ${C_{\alpha,\beta}(u_n)\rightarrow 0}$. Das heißt aber, dass dann ${(u_n)}$ und ebenso ${(\partial^\alpha p^\beta u_n)}$ für alle ${\alpha,\beta}$ gleichmäßig gegen Null gehen. Daraus folgt, dass die rechte Seite in~(1) gegen Null geht. Insbesondere folgt ${C_{\alpha,\beta}(\widehat{u_n})\rightarrow 0}$ und das heißt, dass ${(\widehat{u_n})}$ eine Nullfolge ist. Dies zeigt die Stetigkeit. Um die Inversionsformel zu zeigen kann man leider nicht den direkten Weg einschlagen und einfach das Doppelintegral in ${\check{\widehat{u}}}$ entsprechend umformen. Man bedient sich eines “konvergenzerzeugenden Faktors”. Außerdem betrachten wir ${\widehat{\widehat{u}}}$ an Stelle von ${\check{\widehat{u}}}$. Für zwei beliebige Funktionen ${u,\phi\in\mathcal{S}({\mathbb R}^d)}$ erhalten wir mit Hilfe von Lemma~9 und den Rechenregeln für Translation und Modulation aus Lemma~7 für die Faltung von ${\widehat{\widehat{u}}}$ und ${\phi}$:

$\displaystyle \begin{array}{rcl} (\widehat{\widehat{u}}* \phi)(x) & =& \int_{{\mathbb R}^d}\widehat{\widehat{u}}(y)\phi(x-y){\mathrm d}{y} =\int_{{\mathbb R}^d}\widehat{u}(y)\mathrm{e}^{\mathrm{i} x\cdot y}\widehat{\phi}(-y){\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d} u(y)\widehat{\widehat{\phi}}(-x-y){\mathrm d}{y} = (u* \widehat{\widehat{\phi}})(-x). \end{array}$

Wählen wir ${\phi}$ als reskalierte Gauß-Funktion:

$\displaystyle \phi_\varepsilon(x) = \varepsilon^{-d}(D_{\varepsilon^{-1} \mathrm{Id}} G)(x) = \varepsilon^{-d} \mathrm{e}^{-\frac{|x|^2}{2\varepsilon^2}}$

mit dem Ziel, die Funktion ${u}$ durch Faltung mit ${\phi_\epsilon}$ zu approximieren. Das dies geht, zeigt das folgende Lemma:

Lemma 18 Zu einer Funktion ${\phi:{\mathbb R}^d\rightarrow{\mathbb C}}$ mit den Eigenschaften

$\displaystyle \phi(x)\geq 0,\ \text{und}\ \int_{{\mathbb R}^d}\phi(x){\mathrm d}{x} = 1$

und ${\epsilon>0}$ definieren wir

$\displaystyle \phi_\epsilon(x) = \epsilon^{-d}D_{\epsilon^{-1}\mathrm{Id}}\phi(x) = \epsilon^{-d}\phi(x/\epsilon).$

Dann gilt für gleichmäßig stetiges und beschränktes ${u:{\mathbb R}^d\rightarrow{\mathbb C}}$

$\displaystyle (u*\phi_\epsilon)(x)\rightarrow u(x)\ \text{f\"ur}\ \epsilon\rightarrow 0.$

Beweis: Die ${\phi_\epsilon}$ sind so normiert, dass gilt ${\int_{{\mathbb R}^d}\phi_\epsilon(x){\mathrm d}{x} = 1}$. Außerdem gilt für jedes ${\rho>0}$, dass

$\displaystyle \begin{array}{rcl} \int_{|x|>\rho} \phi_\epsilon(x){\mathrm d}{x}= \int_{|y|>\rho/\epsilon} \phi(y){\mathrm d}{y} \rightarrow 0\ \text{f\"ur}\ \epsilon\rightarrow 0. \end{array}$

Um die punktweise Konvergenz von ${u*\phi_\epsilon}$ gegen ${u}$ zu zeigen, schätzen wir ab

$\displaystyle \begin{array}{rcl} |(u*\phi_\epsilon)(x) - u(x)| &\leq & \int_{{\mathbb R}^d}|u(x-y)\phi_\epsilon(y) - u(x)\phi_\epsilon(y)|{\mathrm d}{y}\\ &=& \int_{{\mathbb R}^d}|u(x-y) - u(x)|\,|\phi_\epsilon(y)|{\mathrm d}{y}. \end{array}$

Nun spalten wir das Integral auf der rechten Seite in die Teile mit ${|y|>\rho}$ und ${|y|<\rho}$ und schätzen weiter ab: In beiden Fällen ziehen wir das Supremum von ${|u(y-x)-u(x)|}$ aus dem Integral:

$\displaystyle \int_{|y|<\rho}|u(x-y) - u(x)|\,|\phi_\epsilon(y)|{\mathrm d}{y}\leq \int_{|y|<\rho}|\phi_\epsilon(y)|{\mathrm d}{y}\sup_{|y|<\rho}|u(x-y) - u(x)| \ \ \ \ \ (2)$

und

$\displaystyle \int_{|y|>\rho}|u(x-y) - u(x)|\,|\phi_\epsilon(y)|{\mathrm d}{y}\leq \int_{|y|>\rho}|\phi_\epsilon(y)|{\mathrm d}{y}\sup_{|y|>\rho}|u(x-y) - u(x)|. \ \ \ \ \ (3)$

In Gleichung (2) nutzen wir die gleichmäßige Stetigkeit von ${u}$ und bemerken, dass der Term ${\sup_{|y|<\rho}|u(x-y) - u(x)|}$ für ${\rho\rightarrow 0}$ gegen Null geht während der Integral-Term beschränkt bleibt. In (3) nutzen wir die eingangs gemachte Beobachtung, dass das Integral ${\int_{|y|>\rho}|\phi_\epsilon(y)|{\mathrm d}{y}}$ für ${\epsilon\rightarrow 0}$ gegen Null geht während der ${\sup}$-Term beschränkt bleibt. Wir notieren also: Für ein ${\delta>0}$ wählen wir ${\rho>0}$ so klein, dass ${\sup_{|y|<\rho}|u(x-y) - u(x)|<\delta/2}$. Dann wählen wir ${\epsilon>0}$ so klein, dass ${\int_{|y|>\rho}|\phi_\epsilon(y)|{\mathrm d}{y}<\delta/(4\|u\|_\infty)}$. Insgesamt ergibt sich

$\displaystyle \begin{array}{rcl} |(u*\phi_\epsilon)(x) - u(x)| &\leq& \int_{|y|<\rho}\phi_\epsilon(y){\mathrm d}{y} \frac{\delta}2 + \frac{\delta}{4\|u\|_\infty}\sup_{|y|>\rho}|u(y-x)-u(x)|\\ &\leq& \delta \end{array}$

was die Behauptung zeigt. $\Box$

Nach der Rechenregel für lineare Koordinatentransformationen aus Lemma~7 folgt ${\widehat{\phi_\varepsilon} = D_{\varepsilon \mathrm{Id}}\widehat{G}}$ und also auch ${\widehat{\widehat{\phi_\varepsilon}} = \varepsilon^{-d} D_{\varepsilon^{-1} \mathrm{Id}} \widehat{\widehat{G}}}$. Nach Lemma~16 gilt ${\widehat G=G}$ und damit auch ${\widehat{\widehat{\phi_\varepsilon}} = \phi_\varepsilon}$. Da ${u}$ insbesondere beschränkt und stetig ist und außerdem ${G}$ positiv ist sowie ein auf eins normiertes Integral hat, können wir Lemma~18 anwenden und bekommen für ${\varepsilon\rightarrow 0}$, dass gilt

$\displaystyle \widehat{\widehat{u}}* \phi_\varepsilon (x) \rightarrow \widehat{\widehat{u}}(x) \quad\text{und}\quad u*\phi_\varepsilon(-x) \rightarrow u(-x).$

Es folgt also

$\displaystyle \widehat{\widehat{u}}(x) = u(-x).$

Man beachte, dass wir die Umkehrformel für die Fourier-Transformation auch schreiben können als

$\displaystyle \check{u} = \overline{\mathcal{F}{\overline{u}}}.$

Nach der Rechenregel für die Konjugation aus Lemma~7 ergibt sich ${ \check u = D_{-\mathrm{Id}}\widehat{u} }$ und wenn wir ${\widehat{u}}$ statt ${u}$ einsetzen, folgt insgesamt

$\displaystyle \check{\widehat{u}} = D_{-\mathrm{Id}}\widehat{\widehat{u}} = u.$

$\Box$

Da der Schwartz-Raum eine Teilmenge von ${L^2({\mathbb R}^d)}$ ist, und sogar eine “dichte Teilmenge”, können wir die Fourier-Transformation mit einem Standardvorgehen von ${\mathcal{S}({\mathbb R}^d)}$ auf ${L^2({\mathbb R}^d)}$ fortsetzen. Lemma~9 ist dabei zentral.

Satz 19 Es gibt genau einen stetigen Operator ${\mathcal{F}:L^2({\mathbb R}^d)\rightarrow L^2({\mathbb R}^d)}$, welcher die Fourier-Transformation ${\mathcal{F}}$ auf ${\mathcal{S}({\mathbb R}^d)}$ fortsetzt und für alle ${u\in L^2({\mathbb R}^d)}$ die Gleichung ${\|u\|_2 = \|\mathcal{F} u\|_2}$ erfüllt. Weiterhin ist dieser Operator ${\mathcal{F}}$ bijektiv und die Umkehrung ${\mathcal{F}^{-1}}$ ist eine stetige Fortsetzung von ${\mathcal{F}^{-1}}$ auf ${\mathcal{S}({\mathbb R}^d)}$.

Beweis: Für zwei Funktionen ${u,v\in\mathcal{S}({\mathbb R}^d)}$ gilt nach Lemma~9 die Gleichung

$\displaystyle \langle\widehat{u},\widehat{v}\rangle = \langle u,D_{-\mathrm{Id}}\widehat{\widehat{v}}\rangle = \langle u,v\rangle$

und insbesondere ${\|u\|_2 = \|\mathcal{F} u\|_2}$. Die Fourier-Transformation ist also eine auf einer dichten Teilmenge des ${L^2({\mathbb R}^d)}$ definierte Isometrie. Demnach existiert eine eindeutige stetige Fortsetzung auf den ganzen Raum; diese konstruiert man (nach einem Standardvorgehen) wie folgt: Zu ${u\in L^2({\mathbb R}^d)}$ wählt man eine Folge ${(u_n)}$ von Schwartz-Funktionen mit ${u_n\rightarrow u}$ in ${L^2({\mathbb R}^d)}$. Die Fourier-Transformierte von ${u}$ wird dann als Grenzwert der Folge ${\widehat{u_n}}$ definiert. Dazu ist wichtig:

• Dieser Grenzwert existiert, da ${u_n}$ nach Definition eine Cauchy-Folge in ${L^2({\mathbb R}^d)}$ ist, und der Operator ${\mathcal{F}}$ eine Isometrie in ${L^2({\mathbb R}^d)}$ ist; also ist auch ${\widehat{u_n}}$ eine Cauchy-Folge).
• Der Grenzwert ist unabhängig von der approximierenden Folge (was wiederum an der Isometrie-Eigenschaft von ${\mathcal{F}}$ liegt).

Aufgrund der Symmetrie zwischen ${\mathcal{F}}$ und ${\mathcal{F}^{-1}}$ liefert eine analoge Argumentation den Rest der Behauptung. $\Box$

Der obige Satz ist auch als Satz von Plancherel bekannt. Streng genommen handelt es sich bei der Fortsetzung von ${\mathcal{F}}$ auf ${L^2({\mathbb R}^d)}$ um einen anderen Operator, also den von ${\mathcal{S}({\mathbb R}^d)}$ nach ${\mathcal{S}({\mathbb R}^d)}$. Manchmal werden diese beiden in der Literatur unterschieden und es wird bei ${\mathcal{F}: L^2({\mathbb R}^d)\rightarrow L^2({\mathbb R}^d)}$ auch von der Fourier-Plancherel-Transformation gesprochen. Wir machen diese Unterscheidung nicht und bezeichnen auch beide Transformationen mit den gleichen Symbolen.

Bemerkung 20 Wie schon eingehend bemerkt, ist die Integralformel

$\displaystyle \mathcal{F}(u)(\xi) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d} u(x)\mathrm{e}^{-\mathrm{i}\xi\cdot x}{\mathrm d}{x}$

für eine Funktion ${u\in L^2({\mathbb R}^d)}$ nicht anwendbar, da das Integral nicht existieren muss. Ähnlich wie im obigen Beweis kann man die Fourier-Transformation auch von der Menge ${L^1({\mathbb R}^d)\cap L^2({\mathbb R}^d)}$ auf ${L^2({\mathbb R}^d)}$ fortsetzen. Dabei approximiert man eine ${L^2}$-Funktion ${u}$ mit einer Folge ${(u_n)}$ von Funktionen ${L^1({\mathbb R}^d)\cap L^2({\mathbb R}^d)}$ (und der Beweis ist analog zu obigem). Für die Approximation gibt es einen naheliegenden Weg: Wir setzen ${u}$ für große Argumente einfach auf Null, d.h. wir nehmen

$\displaystyle u_n = \chi_{\{|x|\leq n\}} u$

(d.h. ${u_n(x) = u(x)}$ für ${|x| und ${=0}$ sonst). Für eine Funktion aus ${L^2({\mathbb R}^d)}$ ist ${u_n}$ natürlich immer noch in ${L^2({\mathbb R}^d)}$; außerdem aber auch noch in ${L^1({\mathbb R}^d)}$ (mit der Cauchy-Schwarz-Ungleichung folgt ${\int_{{\mathbb R}^d}|u_n(x)|{\mathrm d}{x} = \int_{{\mathbb R}^d}\chi_{\{|x|\leq n\}}(x)|u(x)|{\mathrm d}{x} \leq \|\chi_{|x|\leq n}\|_2\|u\|_2}$). Das heißt, dass die Funktion

$\displaystyle \psi_R(\xi) = \frac{1}{(2\pi)^{d/2}}\int_{|x|\leq R} u(x)\mathrm{e}^{-\mathrm{i}\xi\cdot x}{\mathrm d}{x}$

für ${R\rightarrow\infty}$ im Sinne der ${L^2}$ Konvergenz gegen ${\widehat{u}}$ konvergiert. Analoges gilt für die Umkehrformel. Wir werden in Zukunft diese Unterscheidung unter den Tisch fallen lassen und auch für ${L^2}$-Funktionen mit der Integraldarstellung arbeiten. Die Isometrieeigenschaft ${\|u\|_2 = \|\mathcal{F} u\|_2}$ impliziert auch, dass für ${u,v\in L^2({\mathbb R}^d)}$ gilt

$\displaystyle \langle u,v\rangle = \langle \mathcal{F} u,\mathcal{F} v\rangle \ \ \ \ \ (4)$

welche unter dem Namen Plancherel-Formel bekannt ist.

Die bekannten Rechenregeln aus Lemma~7, die Symmetrierelationen und der Faltungssatz~8 gelten natürlich ebenso für die Fourier-Transformation auf ${L^2({\mathbb R}^d)}$. Die Umkehrformel ermöglicht uns folgende Interpretation der Fourier-Transformation:

Beispiel 21 (Frequenzdarstellung einer Funktion) Für ${u\in L^2({\mathbb R}^d)}$ haben wir nach der Umkehrformel

$\displaystyle u(x) = \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}\widehat{u}(\xi)\mathrm{e}^{\mathrm{i} x\cdot \xi}{\mathrm d}{\xi}.$

Man kann also in gewissem Sinne sagen, dass sich ${u}$ als Überlagerung von komplexen Exponentialfunktionen schreiben lässt und dass weiterhin ${\widehat{u}(\xi)}$ angibt, wie sehr die zugehörige Exponentialfunktion ${x\mapsto \mathrm{e}^{\mathrm{i} x\cdot \xi}}$ zu ${u}$ beiträgt. Aus diesem Grund nennt man ${\widehat{u}}$ auch die Frequenzdarstellung von ${u}$ (in diesem Zusammenhang nennt man ${u}$ selbst auch Raumdarstellung oder für ${d=1}$ auch Zeitdarstellung).

## 1.3. Die Fourier-Transformation für temperierte Distributionen

Wie auch schon bei der Laplace-Transformation im vorherigen Abschnitt kann die Fourier-Transformation auch auf Distributionen angewendet werden. Und wiederum wie bei der Laplace-Transformation wird das nicht für alle Distributionen gelingen, sondern nur für die temperierten Distributionen. Wir erinnern an die Definition von temperierten Distributionen:

Definition 22 Mit ${\mathcal{S}({\mathbb R}^d)'}$ bezeichnen wir den Dualraum von ${\mathcal{S}({\mathbb R}^d)}$, d.h. den Raum aller linearen und stetigen Funktionale ${T:\mathcal{S}({\mathbb R}^d)\rightarrow{\mathbb C}}$. Wir nennen diesen Raum den Raum der temperierten Distributionen.

Für uns ist wichtig, dass jede Schwartz-Funktion ${u\in\mathcal{S}{{\mathbb R}^d}}$ eine reguläre temperierte Distribution ${T_u}$ induziert und zwar auf die bekannte Weise:

$\displaystyle T_u(\phi) = \int_{{\mathbb R}^d}u(x) \phi(x){\mathrm d}{x}.$

Unser Ziel ist es, eine Fourier-Transformation für temperierte Distributionen zu definieren und unser Vorgehen dafür ist wie gehabt: Wir untersuchen, wie die induzierter Distribution einer Fourier-Transformierten aussieht. Nach Lemma~9 gilt

$\displaystyle T_{\widehat{u}}(\phi) = \int_{{\mathbb R}^d}\widehat{u}(\xi)\phi(\xi){\mathrm d}{\xi} = \int_{{\mathbb R}^d} u(\xi)\widehat{\phi}(\xi){\mathrm d}{\xi} = T_u(\widehat{\phi}).$

Dies nehmen wir zum Anlass für folgende Definition.

Definition 23 Die Fouriertransformierte von ${T\in\mathcal{S}({\mathbb R}^d)'}$ ist definiert durch

$\displaystyle \widehat{T}(\phi) = T(\widehat{\phi}).$

Analog ist die inverse Fouriertransformierte von ${T}$ gegeben durch

$\displaystyle \check{T}(\phi) = T(\check{\phi}).$

Als erstes Stellen wir fest:

Satz 24 Die Fourier-Transformation ${T\mapsto\widehat{T}}$ als Abbildung des Raumes der temperierten Distributionen in sich ist bijektiv und wird durch ${T\mapsto\check{T}}$ invertiert.

Beweis: Die Abbildung ${\widehat{T}}$ ist wohldefiniert, da mit ${\phi\in\mathcal{S}({\mathbb R}^d)}$ auch ${\widehat{\phi}\in S({\mathbb R}^d)}$ ist. Da mit ${\phi_n\rightarrow 0}$ in ${\mathcal{S}({\mathbb R}^d)}$ auch ${\widehat{\phi_n}\rightarrow 0}$ in ${\mathcal{S}({\mathbb R}^d)}$ gilt, folgt für ${\phi_n\rightarrow 0}$ auch ${\widehat{T}(\phi_n) = T(\widehat{\phi_n})\rightarrow 0}$ und wir sehen, dass ${T}$ temperiert ist. Die Inversionsformel folgt direkt aus der Inversionsformel im Schwartz-Raum:

$\displaystyle \check{\widehat{T}}(\phi) = T(\widehat{\check{\phi}}) = T(\phi).$

$\Box$

Beispiel 25 Die Delta-Distribution ${\delta_x}$ ist

$\displaystyle \delta_x(\phi) = \phi(x).$

und ihre Fourier-Transformierte errechnet sich wie folgt

$\displaystyle \widehat{\delta_x}(\phi) = \delta_x(\widehat{\phi}) = \widehat{\phi}(x) = \int_{{\mathbb R}^d}\frac{1}{(2\pi)^{d/2}}\mathrm{e}^{-\mathrm{i} x\cdot y}\phi(y){\mathrm d}{y}.$

Wir stellen fest, dass die Fourier-Transformierte von ${\delta_x}$ eine reguläre Distribution ist die durch die Funktion ${y\mapsto \frac{1}{(2\pi)^{d/2}}\mathrm{e}^{-\mathrm{i} x\cdot y}}$ dargestellt wird. Insbesondere ist die Fourier-Transformierte von ${\delta_0}$ die konstante Funktion ${1/(2\pi)^{d/2}}$.

Das Rechnen mit temperierten Distributionen im Kontext der Fourier-Transformation stellt meist keine große Schwierigkeit dar. Wir illustrieren dies am Beispiel des Faltungssatzes auf ${ L^2({\mathbb R}^d)}$:

Satz 26 Für ${u,v\in L^2({\mathbb R}^d)}$ gilt für fast alle ${\xi}$, dass

$\displaystyle \widehat{u* v}(\xi) = (2\pi)^{d/2} \widehat{u}(\xi)\widehat{v}(\xi).$

Beweis: Wir rechnen “distributionell” und zeigen die Gleichung ${\widehat{T_{u* v}} = T_{(2\pi)^{d/2}\widehat{u}\widehat{v}}}$:

$\displaystyle \begin{array}{rcl} \int_{{\mathbb R}^d}(u* v)(\xi)\widehat{\phi}(\xi){\mathrm d}{\xi} & =& \int_{{\mathbb R}^d}\int_{{\mathbb R}^d} u(y)v(\xi-y){\mathrm d}{y}\:\widehat{\phi}(\xi){\mathrm d}{\xi}\\ & = &\int_{{\mathbb R}^d}u(y)\int_{{\mathbb R}^d} v(\xi-y)\widehat{\phi}(\xi){\mathrm d}{\xi}{\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d}u(y)\int_{{\mathbb R}^d} \frac{1}{(2\pi)^{d/2}}\int_{{\mathbb R}^d}v(\xi-y)\phi(\xi)\mathrm{e}^{-\mathrm{i} \xi\cdot x}{\mathrm d}{x}{\mathrm d}{\xi}{\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d}u(y)\int_{{\mathbb R}^d} \widehat{v}(x)\mathrm{e}^{-\mathrm{i} y\cdot x}\phi(x){\mathrm d}{x}{\mathrm d}{y}\\ & = &\int_{{\mathbb R}^d}(2\pi)^{d/2}\widehat{u}(x) \widehat{v}(x)\phi(x){\mathrm d}{x}. \end{array}$

$\Box$

Die Rechenregeln für Fouriertransformierte und Ableitungen aus Lemma~15 gelten analog für Ableitungen im Distributionensinn:

Lemma 27 Es seien ${u\in L^2({\mathbb R}^d)}$ und ${\alpha\in{\mathbb N}^d}$ und wir bezeichnen ${p^\alpha(x) = x^\alpha}$. Ist die distributionelle Ableitung ${\partial^\alpha u}$ ebenfalls in ${ L^2({\mathbb R}^d)}$, dann gilt

$\displaystyle \widehat{\partial^\alpha u} = \mathrm{i}^{|\alpha|}p^\alpha \widehat{u}.$

Ist ${p^\alpha u\in L^2({\mathbb R}^d)}$, so gilt

$\displaystyle \widehat{p^\alpha u} = \mathrm{i}^{|\alpha|}\partial^\alpha\widehat{u}.$

Beweis: Auch hier zeigen wir die Gleichung im Distributionensinn. Wir benutzen partielle Integration, Lemma~15 und die Plancherel-Formel~(4) und erhalten für eine Schwartz-Funktion ${\phi}$

$\displaystyle \begin{array}{rcl} \widehat{T_{\partial^\alpha u}}(\phi) & = &T_{\partial^\alpha u}(\widehat{\phi}) = \int_{{\mathbb R}^d} \partial^\alpha u(x)\widehat{\phi}(x){\mathrm d}{x}\\ & =& (-1)^{|\alpha|}\int_{{\mathbb R}^d}u(x)\partial^\alpha\widehat{\phi}(x){\mathrm d}{x}\\ & =&(-1)^{|\alpha|}\int_{{\mathbb R}^d}u(x)(\widehat{-\mathrm{i}^{|\alpha|}p^\alpha\phi})(x){\mathrm d}{x}\\ & =& (-1)^{|\alpha|}\int_{{\mathbb R}^d}\widehat{u}(x)(-\mathrm{i}^{|\alpha|}p^\alpha(x)\phi(x)){\mathrm d}{x} = T_{\mathrm{i}^{|\alpha|}p^\alpha \widehat{u}}(\phi). \end{array}$

Die zweite Behauptung folgt analog. $\Box$

Zur Übung im Umgang mit Distributionen zeigen wir noch die analoge Aussage für temperierte Distributionen:

Lemma 28 Es sei ${T\in\mathcal{S}({\mathbb R}^d)'}$ und ${\alpha}$ ein Multiindex. Dann gilt

$\displaystyle \widehat{\partial^\alpha T} = \mathrm{i}^{|\alpha|}p^\alpha \widehat{T}$

und

$\displaystyle \widehat{p^\alpha T} = \mathrm{i}^{|\alpha|}\partial^\alpha\widehat{T}.$

Beweis: Wir setzen eine Schwartz-Funktion ${\phi}$ ein und benutzen Lemma~15:

$\displaystyle \begin{array}{rcl} \widehat{\partial^\alpha T}(\phi) &=& \partial^\alpha T(\hat{\phi})\\ &=& (-1)^{|\alpha|}T(\partial^\alpha\hat\phi)\\ &=& (-1)^{|\alpha|}T((-\mathrm{i})^{|\alpha|}\widehat{p^\alpha \phi})\\ &=& \mathrm{i}^{|\alpha|}T(\widehat{p^\alpha \phi})\\ &=& \mathrm{i}^{|\alpha|}\widehat{T}(p^\alpha \phi)\\ &=& \mathrm{i}^{|\alpha|}p^\alpha \widehat{T}(\phi) \end{array}$

Die zweite Behauptung zeigt man analog. $\Box$

Beispiel 29 Grob gesprochen kann man sagen, dass sich (schwache) Differenzierbarkeit einer Funktion in schnellem Abfall der Fourier-Transformierten bei unendlich widerspiegelt. Man betrachte hierzu zum Beispiel die Fouriertransformierten der ${L^2({\mathbb R})}$-Funktionen

$\displaystyle \begin{array}{rcl} u(x) & = &\chi_{[-1,1]}(x),\\ v(x) & = &\exp(-x^2)\\ w(x) & = &(1+x^2)^{-1}. \end{array}$

Die Fourier-Transformierte von ${u}$ hat ein asymptotisches Abfallverhalten wie ${|\xi|^{-1}}$ bei unendlich; insbesondere ist die Funktion ${\xi \mapsto |\xi|^2\widehat{u}(\xi)}$ nicht in ${L^2({\mathbb R}^)}$. Für ${v}$ und ${w}$ hingegen fallen die Fourier-Transformierten exponentiell; insbesondere ist ${\xi\mapsto |\xi|^k\widehat{v}(\xi)}$ für jedes ${k\in{\mathbb N}}$ eine ${L^2}$-Funktion (ebenso für ${w}$). Andersherum spiegelt sich das langsame Abfallen von ${w}$ in einer Nicht-Differenzierbarkeit von ${\widehat{w}}$ wider.

## 1.4. Inversion für Transformierte von ${L^1}$-Funktionen

Die Inversion der Fourier-Transformation haben wir schon für Transformierte von Schwartz-Funktionen, von ${L^2}$-Funktionen und von temperierten Distributionen in den Griff bekommen. In alles Fällen war es hilfreich, dass die Fourier-Transformation im gleichen Raum landete, d.h. dass die Rücktransformation mit den gleichen Methoden wie die Hintransformation behandelt werden kann. Weiterhin war nur die Inversion der Transformation von Schwartz-Funktionen durch ein Integral gegeben. In den anderen Fällen haben wir mit Approximationen bzw. Fortsetzungen gearbeitet.

In diesem Abschnitt wollen wir zeigen, dass auch für Transformierte von ${L^1}$-Funktionen, mit denen wir die Untersuchung der Fourier-Transformation begonnen hatten, eine Inversion möglich ist. Der Einfachheit halber beschränken wir und auf den Fall ${d=1}$, d.h. wir haben es mit Funktionen in ${L^1({\mathbb R})}$ zu tun.

Wir versuchen, ähnlich wie bei der Transformation von ${L^2}$-Funktionen vorzugehen: Die Transformierte ${\hat f}$ einer ${L^1}$-Funktion ist beschränkt, hat aber kein quantifiziertes Abfallverhalten bei ${\infty}$ (bzw. keine weitere Integrierbarkeit). Daher hat das Integral ${\int_{\mathbb R} \hat f(\xi)\exp(\mathrm{i} x\xi){\mathrm d}{\xi}}$ keinen Grund zu existieren. Wir schneiden es daher auf ein beschränktes Intervall zurück und definieren zu ${N\in{\mathbb N}}$

$\displaystyle s_N(x) = \frac{1}{\sqrt{2\pi}}\int_{-N}^N \hat f(\xi)\mathrm{e}^{\mathrm{i} x\xi}{\mathrm d}{\xi}.$

Dies Integral existiert auf jeden Fall (der Integrand ist stetig und beschränkt, das Integrationsintervall in beschränkt). Was wir hier tun ist also, dass wir den Ausdruck für die inverse Transformation annähern. Anders geschrieben: ${s_N = \mathcal{F}^{-1}(\chi_{[-N,N]} \hat f)}$, und wenn der Faltungssatz gelten würde, hätten wir (mit der Schreibweise ${D_N(x) = \check\chi_{[-N,N]}(x) = \frac{1}{\sqrt{2\pi}}\int_{-N}^N \mathrm{e}^{\mathrm{i} x\xi}{\mathrm d}{\xi} = \sqrt{\frac{2}{\pi}}\frac{\sin(Nx)}{Nx}}$)

$\displaystyle \sqrt{2\pi}\,\chi_{[-N,N]}\,\hat f = \mathcal{F}(D_N* f)$

und damit

$\displaystyle s_N(x) = \frac{1}{\sqrt{2\pi}}f* D_N(x).$

Hier würden wir gerne den Grenzübergang ${N\rightarrow\infty}$ machen und dann hoffen, dass ${f*D_N}$ gegen ${f}$ konvergiert (in geeignetem Sinne, also z.B. in ${L^1}$). Leider ist die Funktion ${D_N}$ keine ${L^1}$-Funktion, so dass die die Faltung ${s_N = f*D_N}$ im Allgemeinen nur in ${L^2}$ liegt und wir also auf diesem Weg keine Konvergenz in ${L^1}$ bekommen können.

Eine Umkehrformel gilt jedoch trotzdem – wir bekommen sie jedoch auf etwas anderem Wege. Der Trick besteht darin, dass wir das Integral nicht nur Abschneiden, sonder auch noch den Integranden ein wenig dämpfen:

Satz 30 (Inversion für Transformierte von ${L^1}$-Funktionen) Es sei ${f\in L^1({\mathbb R})}$ und ${N\in{\mathbb N}}$. Dann konvergiert die Funktion

$\displaystyle \sigma_N(x) = \frac1{\sqrt{2\pi}}\int_{-N}^N \hat f(\xi)(1-|\xi|/N)\mathrm{e}^{\mathrm{i} x\xi}{\mathrm d}{\xi}$

in ${L^1}$ gegen ${f}$.

Beweis: Wir definieren die Funktion ${F_N}$ über ihre Fourier-Transformierte:

$\displaystyle \widehat{F_N}(\xi) = \max(1-|\xi|/N,0).$

Es ist

$\displaystyle \sigma_N = \mathcal{F}^{-1}(\hat f\,\hat F_N)$

und daher gilt (analog zur obigen Überlegung)

$\displaystyle \sigma_N = \frac{1}{\sqrt{2\pi}}f*F_N.$

Aus Aufgabe 30 schließen wir, dass die Invers-Transformierte von ${h(\xi) = \max(2-2|\xi|,0)}$ die Funktion ${\check{h}(x) = \sqrt{8/\pi}(\sin(x)/x)^2}$ ist. Durch Skalierung folgt

$\displaystyle F_N(x) = \mathcal{F}^{-1}(\tfrac12 h(2\xi/N))(x) = \tfrac{N}{4} \check{h}(Nx/2) = \sqrt{\frac{8}{\pi}}\frac{\sin(\tfrac{Nx}{2})^2}{Nx^2}.$

Um den Grenzübergang ${N\rightarrow\infty}$ durchzuführen benötigen wir ein Lemma, ähnlich zu Lemma~18:

Lemma 31 Es seien ${f,\phi\in L^1({\mathbb R})}$ mit ${\int_{\mathbb R}|\phi(x)|{\mathrm d}{x} = 1}$ und zu ${\epsilon>0}$ definiere ${\phi_\epsilon(x) = \phi(x/\epsilon)/\epsilon}$. Dann gilt

$\displaystyle \|\phi_\epsilon*f -f\|_1 \rightarrow 0\quad\text{f\"ur}\quad \epsilon\rightarrow 0.$

Beweis: Mit dem Satz von Fubini folgt

$\displaystyle \begin{array}{rcl} \|\phi_\epsilon*f -f\|_1&\leq&\int_{\mathbb R}\int_{\mathbb R} |f(x-y)-f(x)||\phi_\epsilon(y)|{\mathrm d}{y}{\mathrm d}{x}\\ & = & \int_{\mathbb R}\int_{\mathbb R} |f(x-\epsilon z)-f(x)|{\mathrm d}{x}|\phi(z)|{\mathrm d}{z}\\ &=& \int_{\mathbb R} \|f(\cdot-\epsilon z) - f\|_1 |\phi(z)|{\mathrm d}{z}. \end{array}$

Nun nutzen wir, dass ${L^1}$-Funktionen, im “1-ten Mittel stetig sind”, das heißt es gilt ${\|f(\cdot-\epsilon z) - f\|_1\rightarrow 0}$ für ${\epsilon\rightarrow 0}$. Außerdem gilt ${\|f(\cdot-\epsilon z) - f\|_1 \leq 2|f\|_1}$ und daher gilt nach dem Satz von der dominierten Konvergenz, dass

$\displaystyle \lim_{\epsilon\rightarrow 0}\int_{\mathbb R} \|f(\cdot-\epsilon z) - f\|_1 |\phi(z)|{\mathrm d}{z} = \int_{\mathbb R} \lim_{\epsilon\rightarrow 0}\|f(\cdot-\epsilon z) - f\|_1 |\phi(z)|{\mathrm d}{z} =0$

was den Beweis abschließt. $\Box$

Das Lemma ist nun anwendbar mit ${\phi_\epsilon = \tfrac{1}{\sqrt{2\pi}}F_{1/\epsilon}}$ (und ${F(x) = \sqrt{8/\pi}\tfrac{\sin(x/2)^2}{x^2}}$), denn es gilt ${F_N(x)\geq 0}$ und daher

$\displaystyle \int_{\mathbb R}\tfrac{1}{\sqrt{2\pi}}|F_N(x)|{\mathrm d}{x} = \widehat{F_N}(0) = 1.$

Es folgt also

$\displaystyle \|\sigma_N - f\|_1 \rightarrow 0.$

$\Box$

Kommen wir schließlich noch zur Inversion der Laplace-Transformation (die wir damals zurückgestellt hatten. Hier müssen wir etwas trickreich vorgehen, da wir eine punktweise Aussage für ${f}$ anstreben:

Wir erinnern uns daran, dass die Laplace-Transformierte ${F}$ einer Funktion ${f:[0,\infty[\rightarrow{\mathbb C}}$ (durch ${f(t)=0}$, ${t<0}$ fortgesetzt) gegeben ist durch

$\displaystyle F(s) = \int_0^\infty f(t)\exp(-st){\mathrm d}{t}.$

Wir untersuchen, wann die Formel

$\displaystyle f(t) = \frac{1}{2\pi\mathrm{i}}\int_{a-\mathrm{i}\infty}^{a+\mathrm{i}\infty} F(s)\exp(st){\mathrm d}{s}$

gilt und beginnen mit

$\displaystyle \begin{array}{rcl} && \frac1{2\pi\mathrm{i}}\int_{a-\mathrm{i}\omega}^{a+\mathrm{i}\omega}F(s)\exp(st){\mathrm d}{s} \\ && =\frac{1}{2\pi}\int_{-\omega}^\omega F(a+\mathrm{i} y)\exp(t(a+\mathrm{i} y)){\mathrm d}{y}\\ &&= \frac1{2\pi}\int_{-\omega}^\omega\exp(t(a+\mathrm{i} y)) \int_{-\infty}^\infty f(\tau)\exp(-(a+\mathrm{i} y)\tau){\mathrm d}{\tau}{\mathrm d}{y}\\ &&=\frac1{2\pi}\int_{-\infty}^\infty f(\tau)\exp((t-\tau)a) \int_{-\omega}^\omega \exp(\mathrm{i} y(t-\tau)){\mathrm d}{y}{\mathrm d}{\tau} \quad(t-\tau = -x)\\ &&= \frac1{2\pi}\int_{-\infty}^\infty f(t+x)\exp(-xa)\int_{-\omega}^\omega \exp(-\mathrm{i} yx){\mathrm d}{y}{\mathrm d}{x}\\ &&= \frac1\pi\int_{-\infty}^\infty f(t+x)\exp(-xa)\frac{\sin(\omega x)}{x}{\mathrm d}{x}. \end{array}$

Setzen wir ${g(x) = f(t+x)\exp(-xa)}$ und nehmen ${a\geq \sigma_1(f)}$ (d.h., dass ${g}$ eine ${L^1}$-Funktion ist), so müssen wir zeigen, dass für eine Funktion ${g}$ aus ${L^1}$ gilt

$\displaystyle \lim_{\omega\rightarrow\infty} \int_{-\infty}^\infty g(x) \frac{\sin(\omega x)}{x}{\mathrm d}{x} = \pi g(0)$

(falls der Wert ${g(0)}$ definiert werden kann, also z.B. falls ${g}$ in der Nähe der Nullpunktes stetig ist). Wir spalten das Integral in fünf Teile, nämlich für ${0<\delta in ${\int_{-\infty}^{-A}}$, ${\int_{-A}^{-\delta}}$, ${\int_{-\delta}^\delta}$, ${\int_\delta^A}$ und ${\int_A^\infty}$.

• Für die Teile ${\int_{-\infty}^{-A}}$ und ${\int_A^\infty}$ sind für ${A}$ genügend groß beliebig klein, das ${g\in L^1({\mathbb R})}$ und ${|\sin(\omega x)/x|\leq 1}$ (unabhängig von ${\omega}$).
• Die Teile ${\int_{-A}^{-\delta}}$ und ${\int_\delta^A}$ konvergieren für ${\omega\rightarrow \infty}$ gegen Null (das sieht man ähnlich wie in Aufgabe 25; diese Tatsache ist auch als Riemann-Lebesgue-Lemma bekannt).
• Der mittlere Teil ${\int_{-\delta}^\delta}$ läuft unter dem Namen “Dirichlet-Integral” (aber das tun auch andere). Wir schreiben

$\displaystyle \begin{array}{rcl} &&\int_{-\delta}^\delta g(x)\frac{\sin(\omega x)}{x}{\mathrm d}{x}\\ &&= g(0)\int_{-\delta}^\delta \frac{\sin(\omega x)}{x}{\mathrm d}{x} + \int_{-\delta}^\delta\frac{g(x) - g(0)}{x}\sin(\omega x){\mathrm d}{x}. \end{array}$

Das erste Integral ist

$\displaystyle \int_{-\delta}^\delta \frac{\sin(\omega x)}{x}{\mathrm d}{x} = \int_{-\omega\delta}^{\omega\delta}\frac{\sin(y)}{y}{\mathrm d}{y} \rightarrow \pi\quad \omega\rightarrow\infty.$

Das zweite Integral konvergiert für ${\omega\rightarrow\infty}$ gegen Null (wieder nach dem Riemann-Lebesgue-Lemma), falls ${\frac{g(x) - g(0)}{x}}$ auf dem Intervall ${[-\delta,\delta]}$ eine ${L^1}$-Funktion ist. Dazu braucht man etwas mehr, als dass ${g}$ stetig ist, es reicht zum Beispiel, wenn ${g}$ von beschränkter Variation ist.

# 1. Die Laplace-Transformation

Etwas grob kann man sagen, dass die Laplace-Transformation die Anpassung der ${z}$-Transformation an kontinuierliche Funktionen ${f:{\mathbb R}_{\geq 0}\rightarrow{\mathbb C}}$ ist.

Aus einer Folge ${(f_n)_{n\in{\mathbb N}}}$ können wir durch stückweise konstante Interpolation eine Funktion ${f:{\mathbb R}_{\geq 0}\rightarrow{\mathbb C}}$ machen:

$\displaystyle f(t) = f_n,\quad\text{falls}\ n\leq t

Wollen wir aus der Reihe in der ${z}$-Transformierten der Folge ${(f_n)}$ (also aus ${\mathcal{Z}(f)(z) = \sum_{n\in{\mathbb N}} f_n z^{-n}}$) ein Integral über ${f}$ machen, so wird aus ${n\in{\mathbb N}}$ ein ${t\in{\mathbb R}_{\geq 0}}$ und der naive Weg würde einen Ausdruck ${z^{-t}}$ ergeben. Reelle Potenzen komplexer Zahlen sind mit Hilfe des Logarithmus definiert als ${z^{-t} = \exp(-t\log(z))}$, wobei man sich jedoch auf einen “Zweig des komplexen Logarithmus” festlegen muss. Man nimmt hier ${z = \exp(s)}$ (mit ${s\in{\mathbb C}}$) und bekommt den wohldefinierten Ausdruck ${\exp(-ts)}$. Aus der Reihe wird also

$\displaystyle \sum_{n\in{\mathbb N}} f_n z^{-n}\quad\leadsto \int_0^\infty f(t)\exp(-ts){\mathrm d}{t}.$

## 1.1. Definition und Eigenschaften

Definition 1 (Original) Eine Funktion ${f:{\mathbb R}_{\geq0}\rightarrow{\mathbb C}}$ nennen wir ein (zulässiges) Original, falls ${f}$ über jede kompakte Menge integrierbar ist und von höchstens exponentiellem Wachstum ist, d.h. es existieren ${K\geq 0}$, ${\sigma\in{\mathbb R}}$ und ${t_0\geq 0}$, so dass für ${t\geq t_0}$ gilt

$\displaystyle |f(t)|\leq K\exp(\sigma t).$

Das Infimum über die möglichen ${\sigma}$ heißt der Wachstumsindex. Wir bezeichnen ihn auch mit

$\displaystyle \sigma_0(f) =\inf\{\sigma\in{\mathbb R}\ :\ \exists K,t_0:|f(t)|\leq K\exp(\sigma t), t\geq t_0\}.$

Bemerkung 2 Die Funktionen, die über kompakte Mengen integrierbar sind heißen auch “lokal integrierbar”. Sprechen wir von Integrierbarkeit im Lebesgueschen Sinne, so fassen wir diese Funktionen im Raum

$\displaystyle L^1_{\text{loc}}(\Omega) = \{f:\Omega\rightarrow{\mathbb C}\ :\ \forall K\subset\Omega\ \text{kompakt}:\ \int_K|f(t)|{\mathrm d}{t}<\infty\}$

zusammen.

Ähnlich wie bei der ${z}$-Transformation benutzen wir auch bei ${\sigma_0}$ (und der weiter unter definierten Laplace-Transformation ${\mathcal{L}}$) die Schreibweise ${\sigma_0(f(t))}$ wenn es sich anbietet.

Beispiel 3

• Für ${-1<\alpha<\infty}$ gilt ${\sigma_0(t^\alpha) = 0}$, da ${t^m\leq K_\epsilon \exp(\epsilon t)}$ für jedes ${\epsilon>0}$. (Ist ${\alpha\leq -1}$, so ist ${t^\alpha}$ nicht lokal integrierbar.)
• Für ${\lambda\in{\mathbb C}}$ gilt ${\sigma_0(\exp(\lambda t)) = \mathrm{Re}(\lambda)}$.
• Ist ${f}$ beschränkt, so gilt ${\sigma_0(f) \leq 0}$.
• Für ${c\neq 0}$ gilt ${\sigma_0(cf) = \sigma_0(f)}$.

Definition 4 (Laplace-Transformation) Für ein Original ${f}$ definieren wir die Laplace-Transformierte

$\displaystyle \mathcal{L}(f)(s) = \int_0^\infty f(t)\exp(-st){\mathrm d}{t}.$

Oftmals schreiben wir auch ${F(s) =\mathcal{L}(f)(s)}$.

Der Wachstumsindex gibt an für welche ${s\in{\mathbb C}}$ das Integral in der Laplace-Transformation konvergiert: Ist ${f}$ ein Original, und ${x =\mathrm{Re}(s) >\sigma> \sigma_0(f)}$, so gilt

$\displaystyle |f(t)\exp(-st)| = |f(t)|\exp(-\mathrm{Re}(s) t) \leq K\exp(\sigma t - xt) = K\exp(-(x-\sigma)t)$

und daher existiert das Integral ${\int_0^\infty f(t)\exp(-st){\mathrm d}{t}}$ für ${\mathrm{Re}(s)>\sigma_0(f)}$.

Die erste Funktion, zu der wir die Laplace-Transformierte ausrechnen ist die Heaviside-Funktion, die das kontinuierliche Gegenstück zum Einheitssprung ist:

$\displaystyle H(t) = \begin{cases} 0 & \text{für } t<0\\ 1 & \text{für } t\geq 0. \end{cases}$

Es ist für ${\mathrm{Re}(s)\geq\sigma_0(H) = 0}$

$\displaystyle \mathcal{L}(H)(s) = \int_0^\infty \exp(-st){\mathrm d}{t} = \Big[-\frac1s\exp(-st)\Big|_{t=0}^\infty = \frac1s.$

Satz 5 Für ${F = \mathcal{L}(f)}$ gilt

1. ${F}$ ist für ${\mathrm{Re}(s)>\sigma_0(f)}$ komplex differenzierbar.
2. Für ${\mathrm{Re}(s)\rightarrow\infty}$ gilt ${F(s)\rightarrow 0}$

Beweis:

• Folgt aus den üblichen Regeln zur Vertauschung von Differentiation und Integration.
• Für ${x>\sigma>\sigma_0(f)}$ gilt

$\displaystyle |F(s)|\leq \int_0^\infty K\exp(-(x-\sigma)t){\mathrm d}{t} \leq \frac{K}{x-\sigma}\rightarrow 0\quad\text{für }\ x\rightarrow\infty.$

$\Box$

Bemerkung 6

1. Führen wir die Differentiation unter dem Integral im ersten Punkt des Satzes durch, so sehen wir:

$\displaystyle F'(s) = \int_0^\infty -t f(t)\exp(-st){\mathrm d}{t} = -\mathcal{L}(t f(t))(s)$

und allgemeiner

$\displaystyle F^{(n)}(s) = (-1)^n\mathcal{L}(t^n f(t))(s).$

2. Originale sind nur auf ${[0,\infty{[}}$ definiert, wir denken sie uns allerdings üblicherweise durch Null auf ganz ${{\mathbb R}}$ fortgesetzt. D.h. die Heaviside-Funktion “ist das gleiche” wie ${1:{\mathbb R}_{\geq 0}\rightarrow{\mathbb C}}$ und ${\cos(t)}$ entspricht dem Original ${H(t)\cos(t)}$. Die Ableitung eines Originals im Punkt ${t=0}$ ist durch den rechtsseitigen Grenzwert gegeben:

$\displaystyle f'(0) = \lim_{h\searrow 0}\frac{f(h) - f(0)}{h}$

und entsprechend für höhere Ableitungen.

## 1.2. Rechenregeln

Satz 7 Es sei ${f}$ ein Original. Dann gelten folgenden Regeln:

• Dämpfungsregel: Für ${\alpha\in{\mathbb C}}$:

$\displaystyle \mathcal{L}(\exp(\alpha t)f(t))(s) = \mathcal{L}(f)(s-\alpha).$

• Skalierung: Für ${a>0}$:

$\displaystyle \mathcal{L}(f(at))(s) = \tfrac{1}{a}\mathcal{L}(f)\big(\tfrac{s}{a}\big).$

• Zeitverschiebung: Für ${a>0}$:

$\displaystyle \mathcal{L}(H(t-a)f(t-a))(s) = \exp(-as)\mathcal{L}(f)(s).$

• Differentiation: Ist ${f}$ ${n-1}$-mal stetig differenzierbar und ${f^{(n-1)}}$ habe stückweise stetiger Ableitung ${f^{(n)}}$ und ist ${f^{(n)}}$ ein Original, dann ist auch ${f}$ ein Original und es gilt

$\displaystyle \mathcal{L}(f^{(n)})(s) = s^n\mathcal{L}(f)(s) - f(0)s^{n-1} - f'(0)s^{n-2} - \cdots - f^{(n-1)}(0).$

• Integration: Für ${\mathrm{Re}(s)>\max(0,\sigma_0(f))}$ gilt:

$\displaystyle \mathcal{L}(\int_0^tf(\tau){\mathrm d}{\tau})(s) = \frac{1}{s}\mathcal{L}(f)(s)$

• Differentiation im Bildbereich: Für ${n\in{\mathbb N}}$ gilt

$\displaystyle \frac{{\mathrm d}{}^n}{{\mathrm d}{s}^n}\mathcal{L}(f)(s) = (-1)^n\mathcal{L}(t^nf(t))(s).$

• Beweis:

• Dämpfungsregel, Skalierung und Zeitverschiebung folgen direkt nach entsprechender Substitution im Integral.
• Differentiation: Wir zeigen die Behauptung für ${n=1}$: Es ist ${f(t) = \int_0^t f'(\tau){\mathrm d}{\tau} - f(0)}$ und mit ${|f'(t)|\leq K\exp(\sigma t)}$ (${\sigma>0}$, sonst klar) folgt

$\displaystyle |f(t)|\leq \int_0^t K\exp(\sigma \tau){\mathrm d}{\tau} + |f(0)| \leq \frac{K}{\sigma}(\exp(\sigma t) - 1) + |f(0)|$

und also ist auch ${f}$ ein Original. Mit partieller Integration ergibt sich zu ${b>0}$

$\displaystyle \int_0^b f'(t)\exp(-st){\mathrm d}{t} = \Big[ f(t)\exp(-st)\Big|_{t=0}^b + s\int_0^b f(t)\exp(-st){\mathrm d}{t}.$

Wir lassen nun ${b}$ gegen unendlich streben und bekommen

$\displaystyle \mathcal{L}(f')(s) = -f(0) + s\mathcal{L}(f)(s).$

Für ${n>1}$ folgt die Behauptung per Induktion.

• Integration folgt aus der Differentiation: Wir setzen ${\Phi(t) = \int_0^t f(\tau){\mathrm d}{\tau}}$. Das für ein Original ${f}$ auch ${\Phi(t)}$ ein Original ist, haben wir schon gesehen. Ist ${\sigma_0(f) \geq 0}$, so ist ${\sigma_0(\Phi)=\sigma_0(f)}$, ist ${\sigma_0(f)<0}$ so ist ${\sigma_0(\Phi) = 0}$. Setzen wir ${\Phi}$ in die Differentiationsregel ein, folgt die Behauptung.
• Differentiation im Bildbereich Haben wir schon in Bemerkung 6 gesehen. $\Box$

Zusätzlich zu diesen Rechenregeln gilt auch für die Laplace-Transformation ein Faltungssatz. Dafür definieren wir die Faltung von zwei Funktionen:

Definition 8 Es seien ${f,g\in L^1({\mathbb R})}$ (d.h. ${f}$ und ${g}$ sind absolut integrierbar im Lebesgueschen Sinne). Dann ist die Faltung von ${f}$ und ${g}$ definiert durch

$\displaystyle (f*g)(t) = \int_{\mathbb R} f(\tau)g(t-\tau){\mathrm d}{\tau}.$

Bemerkung 9

1. Gilt ${f(t)=g(t)=0}$ für ${t<0}$ so ist

$\displaystyle (f*g)(t) = \begin{cases} \int_0^t f(\tau)g(t-\tau){\mathrm d}{\tau} & t\geq 0\\ 0 & t<0 \end{cases}.$

Diese Definition ist auch in Ordnung, wenn ${f}$ und ${g}$ nur lokal integrierbar sind. In diesem Fall ist auch ${f*g\in L^1_{\textup{loc}}({\mathbb R}_{\geq 0})}$.

2. Sind ${f}$ und ${g}$ Originale, so ist auch ${f*g}$ ein Original: Für ${\sigma>\max(\sigma_0(f),\sigma_0(g))}$ gilt ${|f(t)|\leq K_1\exp(\sigma t)}$ und ${|g(t)|\leq K_2 \exp(\sigma t)}$ und es folgt

$\displaystyle \begin{array}{rcl} |(f*g)(t)| & \leq & \int_0^t K_1K_2 \exp(\sigma \tau)\exp(\sigma(t-\tau)){\mathrm d}{\tau}\\ & = & K_1K_2 t\exp(\sigma t)\\ & \leq & \tilde K\exp((\sigma+\epsilon)t). \end{array}$

für jedes ${\epsilon>0}$ (mit passendem ${\tilde K}$). Es folgt

$\displaystyle \sigma_0(f*g)\leq\max(\sigma_0(f),\sigma_0(g)).$

Satz 10 (Faltungssatz für die Laplace-Transformation) Für Originale ${f}$ und ${g}$ gilt

$\displaystyle \mathcal{L}(f*g) = \mathcal{L}(f)\,\mathcal{L}(g).$

Beweis: Der Satz von Fubini erlaubt das Vertauschen der Integrationsreihenfolge. Beachte dabei das Integrationsgebiet ${\{(t,\tau)\ :\ t\geq 0,\quad 0\leq\tau\leq t\} = \{(t,\tau)\ :\ \tau\geq 0,\quad \tau\leq t\}}$.

$\displaystyle \begin{array}{rcl} &&\int_0^\infty \Big(\int_0^t f(\tau)g(t-\tau){\mathrm d}{\tau}\Big)\exp(-st){\mathrm d}{t}\\ &&= \int_0^\infty\int_0^t f(\tau)\exp(-s\tau)g(t-\tau)\exp(-s(t-\tau)){\mathrm d}{\tau}{\mathrm d}{t}\\ &&= \int_0^\infty f(\tau)\exp(-s\tau)\int_\tau^\infty g(t-\tau)\exp(-s(t-\tau)){\mathrm d}{t}{\mathrm d}{\tau}\\ && =\mathcal{L}(f)(s)\mathcal{L}(g)(s). \end{array}$

$\Box$

## 1.3. Beispiele

Beispiel 11 (Heavisidefunktion und einseitige Monome) Uns ist schon ${\mathcal{L}(H)(s) = 1/s}$ für die Heavisidefunktion ${H}$ bekannt. Differentiation im Bildbereich zeigt für ${n\in{\mathbb N}}$:

$\displaystyle \mathcal{L}(t^n)(s) = \frac{n!}{s^{n+1}}.$

Beispiel 12 (Exponentialfunktion, Sinus und Kosinus) Mit der Dämpfungsregel und der Linearität folgt für ${\lambda\in{\mathbb C}}$

$\displaystyle \mathcal{L}(\exp(\lambda t))(s) = \frac{1}{s-\lambda}$

Mit ${\cos(\lambda t) = (\exp(\mathrm{i}\lambda t) + \exp(-\mathrm{i}\lambda t))/2}$ folgt daraus

$\displaystyle \mathcal{L}(\cos(\lambda t))(s) = \frac12\Big(\frac{1}{s-\mathrm{i}\lambda} + \frac{1}{s+\mathrm{i}\lambda}\Big) = \frac{s}{s^2+\lambda^2}.$

und ebenso

$\displaystyle \mathcal{L}(\sin(\lambda t))(s) = \frac1{2\mathrm{i}}\Big(\frac{1}{s-\mathrm{i}\lambda} - \frac{1}{s+\mathrm{i}\lambda}\Big) = \frac{\lambda}{s^2+\lambda^2}.$

Anwendung der Dämpfungsregel gibt für ${\lambda,\omega\in{\mathbb C}}$

$\displaystyle \mathcal{L}(\exp(\lambda t)\cos(\omega t))(s) = \frac{(s-\lambda)}{(s-\lambda)^2 + \omega^2}$

und

$\displaystyle \mathcal{L}(\exp(\lambda t)\sin(\omega t))(s) = \frac{\omega}{(s-\lambda)^2 + \omega^2}.$

Durch Differentiation im Bildbereich erhalten wir noch

$\displaystyle \mathcal{L}(t\exp(\lambda t)\cos(\omega t))(s) = \frac{(s-\lambda)^2 - \omega^2}{\big((s-\lambda)^2+\omega^2\big)^2}$

und

$\displaystyle \mathcal{L}(t\exp(\lambda t)\sin(\omega t))(s) = \frac{2(s-\lambda)\omega}{\big((s-\lambda)^2+\omega^2\big)^2}.$

Beispiel 13 (Charakteristische Funktionen von Intervallen) Wir betrachten ein Plateau der Höhe ${c}$ von ${a_1}$ bis ${a_2}$, d.h.

$\displaystyle c\chi_{[a_1,a_2]}f(t) = \begin{cases} c & 0\leq a_1\leq t\leq a_2\\ 0 & \text{sonst}. \end{cases}$

Wegen ${c\chi_{[a_1,a_2]}(t) = c(H(t-a_1) - H(t-a_2))}$ folgt

$\displaystyle \mathcal{L}(c\chi_{[a_1,a_2]})(s) = \frac{c}{s}(\exp(-a_1 s) - \exp(-a_2 s))$

mit dem Spezialfall ${c=1}$, ${a_1=0}$, ${a_2=1}$

$\displaystyle \mathcal{L}(\chi_{[0,1]})(s) = \frac{1-\exp(-s)}{s}.$

Beispiel 14 (Hut-Funktion) Wir betrachten

$\displaystyle f(t) = \begin{cases} t & 0\leq t\leq 1\\ 2-t & 1\leq t\leq 2\\ 0 & \text{sonst}. \end{cases}$

Die Laplace-Transformierte erhalten wir einerseits aus dem Faltungssatz, denn es gilt ${f = \chi_{[0,1]}*\chi_{[0,1]}}$ und daher

$\displaystyle \mathcal{L}(f)(s) = (\mathcal{L}(\chi_{[0,1]})(s))^2 = \frac{(1-\exp(-s))^2}{s^2}.$

Andererseits gilt (fast überall)

$\displaystyle f'(t) = H(t) - 2H(t-1) + H(t-2)$

und wegen

$\displaystyle \mathcal{L}(f')(s) = \frac{1}{s}(1 - 2\exp(-s) + \exp(-2s))$

erhalten wir das gleiche Ergebnis mit Hilfe der Integrationsregel.

Beispiel 15 (Rechteckschwingung) Die Rechteckschwingung ist

$\displaystyle \begin{array}{rcl} f(t) & =& \begin{cases} 1 & 2n\leq t<2n+1\\ -1 & 2n+1\leq t\leq 2n+2 \end{cases}\\ & =& H(t) - 2H(t-1) + 2H(t-2) - 2H(t-3) \pm\cdots \end{array}$

Dies gibt die Transformierte

$\displaystyle \begin{array}{rcl} \mathcal{L}(f)(s) & = & \frac{1}{s} - \frac{2}{s}\exp(-s) + \frac{2}{s}\exp(-2s) - \cdots\\ & = & \frac{2}{s}\Big(1 - \exp(-s) + \exp(-2s)-\cdots\Big) - \frac{1}{s}\\ & = & \frac{2}{s}\frac{1}{1 + \exp(-s)} - \frac{1}{s}\\ & = & \frac{1}{s}\,\frac{1-\exp(-s)}{1+\exp(-s)}. \end{array}$

Beispiel 16 (Dreieckschwingung) Wir setzen die Hut-Funktion periodisch fort und erhalten eine Dreiecksschwingung: Mit der Funktion ${f}$ aus Beispiel 14 definieren wir

$\displaystyle g(t) = f(t) + f(t-2) + f(t-4)+\cdots$

Es ergibt sich mit der Verschiebungsregel

$\displaystyle \begin{array}{rcl} \mathcal{L}(g)(s) & = & \frac{(1-\exp(-s))^2}{s^2}(1 + \exp(-2s) + \exp(-4s) + \cdots)\\ & = & \frac{(1-\exp(-s))^2}{s^2}\frac{1}{1 - \exp(-2s)}\\ & = & \frac{(1-\exp(-s))^2}{s^2(1 - \exp(-s))(1+\exp(-s))}\\ & = & \frac{1-\exp(-s)}{s^2(1+\exp(-s))}. \end{array}$

Das vorherige Beispiel motiviert die Betrachtung von periodischen Funktionen:

Beispiel 17 (Periodische Funktionen) ${f}$ habe die Periode ${T}$, d.h. ${f(t+T) = f(t)}$. Dann gilt

$\displaystyle \begin{array}{rcl} \mathcal{L}(f)(s) & = & \sum_{k=0}^\infty \int_{kT}^{(k+1)T} f(t) \exp(-st){\mathrm d}{t}\\ & = & \sum_k\int_0^T f(\tau)\exp(-s(\tau +kT)){\mathrm d}{\tau}\\ & = &\int_0^T f(\tau)\exp(-s\tau){\mathrm d}{\tau}\sum_k \exp(-skT)\\ & = & \frac{1}{1-\exp(-sT)}\int_0^T f(\tau)\exp(-s\tau){\mathrm d}{\tau}. \end{array}$

Die Laplace-Transformierte lässt sich also durch ein Integral über eine Periode der Funktion berechnen.

Auch Potenzreihen lassen sich Laplace-transformieren:

Lemma 18 Es sei ${f(t) = \sum_{n=0}^\infty a_nt^n}$ für ${t\geq 0}$. Ist ${\sum_{n=0}^\infty |a_n|n!\beta^{-n}<\infty}$ für ein ${\beta>0}$, so ist ${f}$ ein Original und die Reihe

$\displaystyle F(s) = \sum_{n=0}^\infty a_n n! s^{-n-1}$

konvergiert für ${\mathrm{Re}(s)>\beta}$ und stimmt dort mit ${\mathcal{L}(f)}$ überein.

Beweis: Konvergenz für ${\mathrm{Re}(s)>\beta}$ folgt aus dem Majoranten-Kriterium. Insbesondere ist ${a_n n! s^{-n-1}}$ beschränkt, d.h. es gibt ein ${c>0}$, so dass

$\displaystyle |a_n|\leq c\frac{\beta^n}{n!}$

und daher gilt

$\displaystyle |f(t)|\leq c\sum (\beta t)^n/n! = c\exp(\beta t).$

Also ist ${f}$ ein Original mit ${\sigma_0(f) \leq \beta}$. Für ${\mathrm{Re}(s) \geq \beta + \epsilon}$ gilt

$\displaystyle \Big|\sum_{n=0}^N a_n t^n \exp(-st)\Big|\leq c\sum_{n=0}^N \frac{(\beta t)^n}{n!}\exp(-(\beta+\epsilon)) \leq C\exp(-\epsilon t)$

Die rechte Seite ist (unabhängig von ${N}$) über ${{\mathbb R}_{\geq 0}}$ absolut integrierbar. Der Satz von dominierten Konvergenz erlaubt also das gliedweise Integrieren. $\Box$

Beispiel 19 (Besselfunktion) Die Besselfunktion nullter Ordnung ist

$\displaystyle J_0(t) = \sum_{n=0}^\infty \frac{(-1)^n t^{2n}}{2^{2n}(n!)^2}.$

Als Laplace-Transformierte erhalten wir

$\displaystyle \mathcal{L}(J_0)(s) = \sum_{n=0}^\infty \frac{(-1)^n (2n)!}{2^{2n}(n!)^2} s^{-2n-1}$

was nach dem Quotientenkriterium für ${|s|>1}$ konvergiert. Es gilt allerdings (ebenfalls für ${|s|>1}$) für den Hauptzweig der komplexen Wurzel

$\displaystyle \frac{1}{\sqrt{1+s^2}} = \frac{1}{s}\frac{1}{\sqrt{1 + \frac{1}{s^2}}} = \sum_{n=0}^\infty \binom{-\tfrac{1}{2}}{n} s^{-2n}$

$\displaystyle \begin{array}{rcl} \binom{-\tfrac{1}{2}}{n} & = & \frac{(-1/2)(-3/2)\cdots(-(2n-1)/2)}{n!}\\ & = & (-1)^n\frac{1\cdot 3\cdot 5\cdots (2n-1)}{2^n n!}\\ & = & (-1)^n\frac{(2n)!}{2^{2n}(n!)^2}. \end{array}$

und daher

$\displaystyle \mathcal{L}(J_0)(s) = \frac{1}{\sqrt{1+s^2}}.$

## 1.4. Elektrische Netzwerke

Die Laplace-Transformation lässt sich einsetzen, um elektrische Netzwerke zu analysieren. Ein elektrisches Netzwerk besteht aus drei verschiedenen Bauteilen: Widerständen, Spulen und Kondensatoren. Die Bauteile sind durch Leitungen miteinander verbunden, so dass Strom fließen kann. Legen wir nun an einer Stelle im Netzwerk eine Spannung ${u(t)}$ an, so fließt ein Strom ${i(t)}$. Die Berechnung des fließenden Stroms wird durch folgende Regeln berechnet:

• In einem Widerstand ${R}$ gilt

$\displaystyle u(t) = R i(t).$

• An einer Spule mit Induktivität ${L}$ gilt

$\displaystyle u(t) = L\frac{{\mathrm d}{}}{{\mathrm d}{t}} i(t).$

• An einem Kondensator mit Kapazität ${C}$ gilt

$\displaystyle u(t) = \frac{1}{C}\Big[\int_0^t i(\tau){\mathrm d}{\tau} + q_0\Big].$

Die Laplace-Transformation dieser Identitäten ergibt (Bezeichnung: ${\mathcal{L}(u) = U}$ und ${\mathcal{L}(i) = I}$)

• $\displaystyle U(s) = RI(s)$

• $\displaystyle U(s) = Ls I(s)\quad\text{bei }\ i(0)=0$

• $\displaystyle U(s) = \frac{1}{Cs}I(s)$

In jedem Fall läuft ein Bauteil auf eine Multiplikation von ${I}$ mit einer rationalen Funktion hinaus. Diese Funktion bezeichnet man auch als “komplexen Widerstand” oder Impedanz und bezeichnet Ihn mit ${Z(s)}$, also

$\displaystyle U(s) = Z(s)I(s).$

Die Impedanz eines Netzwerkes berechnet sich nach den Kirchhoffschen Regeln:

• Sind Bauteile hintereinander geschaltet (“in Reihe”), so addieren sich die Impedanzen. Das heißt: Liegt an hintereinderliegenden Bauteilen mit Impedanzen ${Z_1,\dots,Z_n}$ je eine Spannung ${u_1,\dots,u_n}$ an, dann haben sie gemeinsam die Impedanz ${Z = \sum Z_k}$ und die die Laplace-transformierte Spannung am ${k}$-ten Bauteil ist ${U_k = Z_k I}$ und die Spannung über das zusammengefasste Bauteil ${U = \sum Z_k I}$.
• Sind Bauteile parallel geschaltet, so ist die Impedanz der Kehrwerte der Summe der Kehrwerte. Das heißt: Fließt durch die Bauteile mit Impedanzen ${Z_1,\dots, Z_n}$ je ein Strom ${i_1,\dots, i_n}$, dann hat das zusammenfasste Bauteil die Impedanz ${Z = (\sum_k \tfrac1{Z_k})^{-1}}$ und der Laplace-transformierte Strom im ${k}$-ten Bauteil ist ${I_k = \tfrac{U}{Z_k}}$.

Anschalten eines LCR-Gliedes/\href{Schwingkreises}} Für ein einfaches Beispiel in dem eine Spule ${L}$ hinter eine Parallelschaltung von einem Widerstand und einem Kondensator ${C}$ geschaltet wird ergibt sich die Gesamtimpedanz als

$\displaystyle Z(s) = Ls + \frac{1}{Cs + \tfrac1R} = \frac{LCRs^2 + Ls + R}{RCs + 1}.$

Wir wollen nun zum Zeitpunkt ${t=0}$ eine Gleichspannung ${u_0}$ anlegen, das heißt, die Spannung ist ${u(t) = H(t)u_0}$. Die Laplace-Transformierte ist ${U(s) = \frac{u_0}{s}}$ und die Laplace-Transformierte des Stromes durch das gesamte Glied ist

$\displaystyle I(s) = \frac{U(s)}{Z(s)} = \frac{u_0(RCs + 1)}{(LCRs^2 + Ls + R)s}.$

Unter der Annahme ${L<4RC^2}$ hat der Nenner die Nullstellen ${s_0=0}$, ${s_{1/2} = -\sigma \pm \mathrm{i} \omega}$ mit ${\sigma = \tfrac{1}{2RC}}$, ${\omega = \sqrt{\frac{1}{LC} - \frac{1}{4C^2R^2}}}$. Um einen Eindruck der Rücktransformierten zu bekommen, Zerlegen wir ${I(s)}$ in Partialbrüche und erhalten etwas von der Form

$\displaystyle I(s) = \frac{A}{s-(-\sigma-\mathrm{i}\omega)} + \frac{B}{s-(-\sigma+\mathrm{i}\omega) } +\frac{C}{s}.$

Rücktransformation gibt

$\displaystyle \begin{array}{rcl} i(t) &=& A\exp((-\sigma-\mathrm{i}\omega)t) + A\exp((-\sigma+\mathrm{i}\omega)t) + C\\ &=& \exp(-\sigma t)\Big( (A+B)\cos(\omega t) +\mathrm{i}(A-B)\sin(\omega t)\Big) + C \end{array}$

Qualitativ lässt sich über den fließenden Strom folgendes sagen: Für ${t\rightarrow\infty}$ geht dieser gegen eine Konstante ${C}$ (da ${\sigma>0}$), Anfangs wird die Konstante durch eine Schwingung der Frequenz ${\omega}$ überlagert und der Wert ${\sigma}$ bestimmt die Geschwindigkeit des Abklingverhaltens die Überlagerung.

Der unstetige Vorgang des Anschaltens lässt sich also mit Hilfe der Laplace-Transformation einfach beschreiben. Ebenso könnte man eine Wechselspannung anschalten, indem man ${u(t) = H(t) u_0\exp(i\omega t)}$ anlegt. Man ist darüberhinaus auch daran interessiert, wie sich der Schaltkreis unter einem “Einheitsimpuls” verhält, d.h. wir legen zum Zeitpunkt ${t=0}$ (für eine “unendlich kurze Zeit”) eine Spannung 1 an. Um dies zu realisieren bräuchte man eine Funktion ${u}$ mit “unendlich kleinem Träger”, welche trotzdem eine Auswirkung in der Gleichung hat. Dies lässt sich mathematisch mit Hilfe von Distributionen formulieren.

## 1.5. Laplace-Transformation von Distributionen

Distributionen sind auch unter dem Namen “verallgemeinerte Funktionen” bekannt, was ihre Natur ganz gut beschreibt. Fundamental für das Konzept einer Distribution ist die Tatsache, dass eine lokal integrierbare Funktion ${f:\Omega\rightarrow{\mathbb C}}$ fast überall durch die Integrale der Form

$\displaystyle \int_\Omega f(x)\phi(x){\mathrm d}{x}$

bestimmt ist. Es reicht hier, wenn ${\phi}$ alle unendlich oft differenzierbaren Funktionen mit kompaktem Träger durchläuft. Diese Tatsache ist auch als Fundamentallemma der Variationsrechnung oder als “Lemma von du Bois-Reymond” bekannt:

Lemma 20 (Fundamentallemma der Variationsrechnung) Es sei ${\Omega\subset{\mathbb R}^n}$ und ${f\in L^1_{\textup{loc}}(\Omega)}$. Gilt dann für alle ${\phi\in C^\infty(\Omega)}$ mit kompaktem Träger

$\displaystyle \int_\Omega f(x)\phi(x){\mathrm d}{x} = 0$

so ist ${f=0}$ fast überall.

Das heißt, die Werte ${\int_\Omega f\,\phi}$ beschreiben die Funktion ${f}$ (fast) vollständig. Wir können also statt ${f}$ auch seine Wirkung auf dem Raum der sogenannten “Testfunktionen” (also den ${C^\infty}$-Funktionen mit kompaktem Träger) vermittels der Abbildung ${T_f(\phi) =\int_\Omega f\,\phi}$ betrachten. Diese Idee lässt sich verallgemeinern: lineare Abbildungen, die jeder Testfunktion eine komplexe Zahl zuordnen, werden unsere verallgemeinerten Funktionen. Um für die Abbildungen noch einen Begriff der Stetigkeit formulieren können, definieren wir:

Definition 21 (Testfunktionen und Konvergenz) Es sei ${\Omega\subset{\mathbb R}}$. Eine Funktion ${f:\Omega\rightarrow{\mathbb C}}$ heißt Testfunktion, falls sie kompakten Träger hat und unendlich oft differenzierbar ist, den Vektorraum der Testfunktionen bezeichnen wir mit ${\mathcal{D}(\Omega)}$. Wir sagen, dass eine Folge ${(f_n)}$ von Testfunktionen in ${\mathcal{D}(\Omega)}$ gegen ${f}$ konvergiert, falls

1. es eine kompakte Menge ${K}$ gibt, so dass die Träger aller ${f_n}$ in ${K}$ liegt, und
2. alle Ableitungen ${f^{(k)}_n}$ gleichmäßig gegen ${f^{(k)}}$ konvergieren.

Wir schreiben dafür ${f_n\rightarrow f}$ in ${\mathcal{D}(\Omega)}$.

Definition 22 (Distribution) Eine Abbildung ${T:\mathcal{D}(\Omega)\rightarrow{\mathbb C}}$ heißt Distribution, falls sie linear und stetig ist, d.h. ${T(\phi + \lambda\psi) = T(\phi) + \lambda T(\psi)}$ und für ${\phi_n\rightarrow \phi}$ in ${\mathcal{D}(\Omega)}$ folgt ${T(\phi_n)\rightarrow T(\phi)}$.

Die Distributionen bilden einen Vektorraum, der mit ${\mathcal{D}(\Omega)'}$ bezeichnet wird (in Analogie zur Bezeichnung des Dualraums in der Funktionalanalysis).

Beispiel 23 (Reguläre und ${\delta}$-Distribution)

• Jede Funktion ${f\in L^1_{\textup{loc}}(\Omega)}$ induziert eine Distribution via

$\displaystyle T_f(\phi) = \int_\Omega f(x)\phi(x){\mathrm d}{x}.$

Linearität ist klar und für die Konvergenz ${T_f(\phi_n)\rightarrow T_f(\phi)}$ reicht sogar schon die gleichmäßige Konvergenz von einer kompakten Menge (Konvergenz der Ableitungen wird nicht benötigt). Distributionen, die von einer lokal integrierbaren Funktion induziert werden heißen reguläre Distributionen.

• Eine bekannte (nicht-reguläre) Distribution ist die ${\delta}$-Distribution (auch Deltafunktion oder Dirac-Distribution): Sie ist definiert durch

$\displaystyle \delta(\phi) = \phi(0).$

In Analogie zu regulären Distributionen schreibt man formal manchmal ${\int \delta(x)\phi(x){\mathrm d}{x} = \phi(0)}$.

Um die Laplace-Transformation für eine Distribution ${T}$ zu definieren, bietet es sich an, ${\mathcal{L}(T)(s) = T(\exp(-st))}$ zu definieren; leider handelt es sich bei ${\exp(-st)}$ nicht um eine Testfunktion (der Träger ist nicht kompakt). Es gibt jedoch einen etwas größeren Raum von geeigneten Funktionen:

Definition 24 (Schwartz-Raum) Der Schwartz-Raum auf ${{\mathbb R}}$ ist definiert durch

$\displaystyle \mathcal{S}({\mathbb R}) = \{f\in C^\infty({\mathbb R})\ :\ \forall n,m\in{\mathbb N}\exists C_{n,m}: |t^n f^{(m)}(t)|\leq C_{n,m}\},$

seine Elemente nennen wir Schwartz-Funktionen oder auch “schnell fallende Funktionen”. Eine Folge ${f_k}$ von Schwartz-Funktionen konvergiert in ${\mathcal{S}({\mathbb R})}$ gegen ${f}$, falls für alle ${n,m\in{\mathbb N}}$ gilt, dass ${t^n(f_k^{(m)}(t) - f^{(m)}(t))}$ für ${k\rightarrow\infty}$ gleichmäßig gegen Null konvergiert. Schwartz-Funktionen auf ${{\mathbb R}_{\geq 0}}$ sind analog definiert, d.h. es wird keine Abfallverhalten für ${t\rightarrow 0}$ vorgeschrieben.

In Worten: ${f}$ ist eine Schwartz-Funktion, wenn sie und ihre Ableitungen multipliziert mit allen Polynomen beschränkt ist. Beachte, dass der Schwartz-Raum vorerst nur auf ${{\mathbb R}}$ und ${{\mathbb R}_{\geq 0}}$ definiert wurde (bei Testfunktionen haben wir Teilmengen von ${{\mathbb R}^n}$ zugelassen). Der Grund ist, dass Schwartz-Funktionen “gegen den Rand hin schnell genug abfallen müssen”, was bei Mengen mit kompliziertem Rand schwierig zu formulieren sein kann. Testfunktionen hingegen müssen (im Fall einer offenen Menge ${\Omega}$) einfach schon “vor dem Rand Null sein”.

Offensichtlich gilt ${\mathcal{D}({\mathbb R})\subset\mathcal{S}({\mathbb R})}$ (und ${\mathcal{D}({\mathbb R}_{\geq 0})\subset \mathcal{S}({\mathbb R}_{\geq 0})}$) und ${\phi_n\rightarrow\phi}$ in ${\mathcal{D}({\mathbb R})}$ impliziert ${\phi_n\rightarrow\phi}$ in ${\mathcal{S}({\mathbb R})}$. Im

Definition 25 (Temperierte Distribution) Eine lineare und stetige Abbildung ${T:\mathcal{S}({\mathbb R})\rightarrow{\mathbb C}}$ (bzw. ${T:\mathcal{S}({\mathbb R}_{\geq 0})\rightarrow{\mathbb C}}$) heißt temperierte Distribution. Der Vektorraum der temperierten Distributionen wird mit ${\mathcal{S}({\mathbb R})'}$ (bzw. ${\mathcal{S}({\mathbb R}_{\geq 0})'}$) bezeichnet.

Bemerkung 26

• Jede temperierte Distribution ist eine Distribution.
• Die ${\delta}$-Distribution ist temperiert.
• Nicht jede Distribution ist temperiert, insbesondere ist schon nicht jede reguläre Distribution temperiert: Für ${f(x) = \exp(x^2)}$ gilt zwar ${T_f\in\mathcal{D}({\mathbb R})'}$, aber ${\notin \mathcal{S}({\mathbb R})'}$ (da ${\phi(x)=\exp(-x^2)}$ eine Schwartz-Funktion ist, für die ${\int f(x)\phi(x){\mathrm d}{x}}$ nicht existiert).

Bemerkung 27 (Operationen auf Distributionen) Mit Distributionen kann man zahlreiche Sachen machen, die man auch mit Funktionen machen kann.

• Ableitung: Zum Beispiel kann man Distributionen ableiten: Ist ${f:{\mathbb R}\rightarrow{\mathbb C}}$ lokal integrierbar und (stückweise) differenzierbar mit lokal integriertbarer Ableitung ${f}$, dann gilt nach der Regel der partiellen Integration

$\displaystyle T_{f'}(\phi) = \int_{{\mathbb R}} f'(x)\phi(x){\mathrm d}{x} = -\int_{\mathbb R} f(x)\phi'(x){\mathrm d}{x} = -T_f(\phi').$

Der letzte Ausdruck ist jedoch schon ohne Differenzierbarkeit von ${f}$ erklärt! Man nimmt dies zum Anlass und definiert die Ableitung einer Distribution ${T}$ als

$\displaystyle T'(\phi) = -T(\phi').$

Distributionen sind also unendlich oft differenzierbar!

• Multiplikation mit einer ${C^\infty}$-Funktion: Analog lässt sich die Multiplikation einer Distribution mit einer ${C^\infty}$-Funktion definieren: Ist ${g:{\mathbb R}\rightarrow{\mathbb C}}$ unendlich oft differenzierbar, so ist für eine Testfunktion ${\phi}$ auch ${g\phi}$ eine Testfunktion. Es gilt

$\displaystyle T_{gf}(\phi) = \int_{\mathbb R} f(x)g(x)\phi(x){\mathrm d}{x} = T_f(g\phi)$

und daher definiert man für eine beliebige Distribution ${T}$

$\displaystyle (gT)(\phi) = T(g\phi). \ \ \ \ \ (1)$

• Verschiebung: Um die Verschiebung einer Distribution zu formulieren, gehen wir wie folgt vor: Wie definieren zu ${\tau\in{\mathbb R}}$ die Funktion ${v_\tau(t) = t-\tau}$ und damit den Verschiebungsoperator ${V_\tau f = f\circ v_\tau}$ (d.h. ${V_\tau f(t) = f(t-\tau)}$. In den Übungen sollen Sie sich überlegen, dass die Verschiebung einer Distribution ${T}$ sinnvollerweise durch

$\displaystyle (V_\tau T)(\phi) = T(V_{-\tau}\phi)$

definiert wird. Die Skalierung von Distributionen wird ebenfalls in den Übungen behandelt.

• Bemerkung 28 (Sprechweise “im Distributionensinn”) Operationen, die wir wie in der vorigen Bemerkung von Funktionen auf Distributionen fortgesetzt haben, lassen sich natürlich auch auf reguläre Distributionen anwenden und damit in gewissem Sinne auch auf lokal integrierbare Funktionen. Bildet man zum Beispiel die Ableitung der regulären Distribution ${T_f}$ so spricht man auch von “der Ableitung von ${f}$ im Distributionensinn” oder von “der distributiven Ableitung von ${f}$”. Algemein sagt man das eine Funktion ${f}$ eine Eigenschaft “im Distributionensinn” hat, wenn die zugehörige reguläre Distribution diese Eigenschaft hat. Zum Beispiel bedeutet “${f=g}$ im Distributionensinn”, dass ${T_f=T_g}$ ist, was wiederum bedeutet dass ${T_f(\phi) = T_g(\phi)}$ für alle Testfunktionen ${\phi}$, also ${\int f\phi = \int g\phi}$ für all diese. Nach dem Fundamentallemma der Variationsrechnung also ${f=g}$ fast überall.

Beispiel 29

1. Es sei ${f(x) = \max(0,x)}$. Dann ist die distributionelle Ableitung wieder eine reguläre Distribution, nämlich die, die zur Heaviside-Funktion gehört. Wie schreiben also

$\displaystyle f'(x) = H(x)$

(und diese Gleichung gilt im Distributionensinn.)

2. Auch ${H}$ können wir distributionell ableiten. Diesmal ergibt sich allerdings keine Funktion mehr, sondern es gilt

$\displaystyle H' = \delta$

(im Distributionensinne), oder präziser aber umständlicher ${T_H' = \delta}$.

3. Die Ableitung der ${\delta}$-Distribution ist

$\displaystyle \delta'(\phi) = -\delta(\phi') = -\phi'(0).$

Außerdem gilt

$\displaystyle (g\delta)(\phi) = \delta(g\phi) = g(0)\phi(0).$

Beispiel 30 (Multiplikation, Differentiation und Produktregel) Es sei ${g:{\mathbb R}\rightarrow{\mathbb C}}$ unendlich oft differenzierbar.

1. Was ist ${g\cdot\delta}$? Wir berechnen die Wirkung auf eine Testfunktion ${\phi}$:

$\displaystyle (g\cdot\delta)(\phi) = \delta(g\phi) = g(0)\phi(0).$

Mit anderen Worten: ${(g\cdot \delta)(\phi) = g(0)\delta(\phi)}$. Nun können wir auch das Argument ${\phi}$ weglassen und erhalten die amüsante Beziehung

$\displaystyle g\cdot\delta = g(0)\delta,$

(beachte hierbei: Auf der linken Seite steht das Produkt von ${C^\infty}$-Funktion mit einer Distribution (definiert in~(1); auf der rechten Seite steht das Produkt einer der komplexen Zahl mit einer Distribution).

2. Was ist ${g\cdot\delta'}$? Auch hier berechnen wir die Wirkung auf eine Testfunktion und müssen hierbei beachten, dass wir zuerst die Multiplikation mit ${g}$ und dann die Ableitung “in das Argument ziehen” müssen, was die Benutzung der Produktregel der Ableitung nach sich zieht:

$\displaystyle \begin{array}{rcl} (g\cdot\delta')(\phi) &=& \delta'(g\phi) = -\delta( (g\phi)') = -\delta(g'\phi + g\phi')\\ & = & -g'(0)\phi(0) - g(0)\phi'(0) \end{array}$

Mit anderen Worten: ${(g\cdot\delta')(\phi) = -g(0)\delta(\phi) + g(0)\delta'(\phi)}$. Wieder können wir das Argument ${\phi}$ weglassen und bekommen die (eventuell komplizierter als erwartete) Gleichung

$\displaystyle g\cdot\delta' = -g'(0)\delta + g(0)\delta'.$

3. Was ist ${(g\cdot\delta)'}$? Wir gehen vor wie oben:

$\displaystyle (g\cdot\delta)'(\phi) = -(g\cdot\delta)(\phi') = \delta(g\phi') =- g(0)\phi'(0),$

mit anderen Worten ${(g\cdot\delta)'(\phi) = g(0)\delta'(\phi)}$ bzw.

$\displaystyle (g\cdot\delta)' = g(0)\delta'.$

4. Es gilt auch eine Produktregel für die Ableitung des Produkten von ${C^\infty}$-Funktion und Distribution:

$\displaystyle (g\cdot T)'(\phi) = -(g\cdot T)(\phi') = -T(g\cdot \phi').$

Wir benutzen die “Produktregel für die Ableitung des Produktes von Funktionen rückwärts”, d.h. ${g\cdot\phi' = (g\cdot\phi)' - g'\cdot\phi}$ und bekommen

$\displaystyle \begin{array}{rcl} (g\cdot T)'(\phi) &=& -T((g\cdot\phi)' - g'\cdot\phi)\\ &=& -T((g\cdot\phi)') + T(g'\cdot\phi)\\ &=& T'(g\cdot\phi) + (g'\cdot T)(\phi)\\ &=& (g\cdot T')(\phi) + (g'\cdot T)(\phi), \end{array}$

d.h.

$\displaystyle (g\cdot T)' = g\cdot T' + g'\cdot T.$

Zu guter Letzt kann man sich davon überzeugen, dass unsere Überlegungen alle konsistent sind, in dem man sich ${(g\cdot\delta)'}$ noch einmal mit Hilfe der allgemeinen Produktregel berechnet.

Zurück zur Laplace-Transformation von Distributionen: Wir können zum Beispiel schon formal die ${\delta}$-Distribution mit unser ursprünglichen Idee transformieren: ${\mathcal{L}(\delta)(s) =\delta(\exp(-st)) = \exp(-s0) = 1}$.

Konzeptionell beobachten wir: Wir können die Laplace-Transformierte einer Distribution ${T}$ definieren, wenn es ein ${x_0}$ gibt, so dass ${\exp(-x_0 t)T}$ eine temperierte Distribution ist, denn dann ist für ${\mathrm{Re}(s)>x_0}$ die Funktion ${\exp(-(s-x_0)t)}$ eine Schwartz-Funktion auf ${{\mathbb R}_{\geq 0}}$ und der Ausdruck

$\displaystyle T(\exp(-st)) = (\exp(-x_0 t)T)(\exp(-(s-x_0)t)$

ist wohldefiniert. Wir halten fest:

Definition 31 (Laplace-Transformation von Distributionen) Es sei ${T\in\mathcal{D}({\mathbb R}_{\geq 0})'}$ eine Distribution. Gibt es ${x_0\in{\mathbb R}}$, so dass ${\exp(-x_0 t)T}$ eine temperierte Distribution ist, so definieren wir die Laplace-Transformation von ${T}$ als

$\displaystyle \mathcal{L}(T)(s) = T(\exp(-st)).$

Die bekannten Rechenregeln für die Laplace-Transformation gelten auch in diesem Fall (falls sie denn sinnvoll erklärt werden können).

Beispiel 32 (Ableitungsregel) Es gilt

$\displaystyle \begin{array}{rcl} \mathcal{L}(\delta')(s) &=& \delta'(\exp(-st)) = -\delta(-s\exp(-st)) = s. \end{array}$

und ebenso

$\displaystyle L(\delta^{(k)})(s) = s^k.$

Wir können nun schon einige Sachen mit Distributionen machen: Die Vektorraumoperationen Addition und skalare Multiplikation, sie mit ${C^\infty}$-Funktionen multiplizieren, Ableiten, Verschieben und Skalieren. Nun wollen wir uns daran machen und versuchen, Distributionen zu falten. Das wird nicht in allen Fällen funktionieren. Wieder überlegen wir uns zu erst, wie die Faltung von zwei regulären Distributionen aussieht. Sind ${f,g:{\mathbb R}\rightarrow{\mathbb C}}$ “faltbare Funktionen”, so gilt

$\displaystyle \begin{array}{rcl} T_{f*g}(\phi) &=& \int_{\mathbb R} (f*g)(t)\phi(t){\mathrm d}{t}\\ &=& \int_{\mathbb R}\int_{\mathbb R} f(\tau) g(t-\tau){\mathrm d}{\tau}\phi(t){\mathrm d}{t}\\ &=& \int_{\mathbb R} f(\tau)\int_{\mathbb R} g(t)\phi(t+\tau){\mathrm d}{t}{\mathrm d}{\tau}\\ &=& \int_{\mathbb R} f(\tau) T_g(V_{-\tau}\phi){\mathrm d}{\tau}\\ &=& T_f(T_g(V_{-\tau}\phi). \end{array}$

Schauen wir uns diese Herleitung noch einmal kritisch an: Wir müssen die Integrationsreihen vertauschen dürfen, d.h. die Integrierbarkeit der Funktion ${(t,\tau)\mapsto f(\tau)g(t-\tau)\phi(t)}$ muss “gut genug” sein. Der kompakte Träger von ${\phi}$ allein reicht dafür nicht aus. Fordert man zusätzlich noch kompakten Träger von ${f}$ oder ${g}$ (und deren Integrierbarkeit) so ist man auf der sicheren Seite. Um in der letzten Zeile von regulären Distributionen ${T_f}$ und ${T_g}$ zu allgemeinen Distributionen ${T_1}$ und ${T_2}$ überzugehen, muss das Argument von ${T_f}$ (bzw. ${T_1}$) eine Testfunktion sein. Mit anderen Worten: Die Abbildung ${\tau\mapsto T_2(V_{-\tau}\phi)}$ muss unendlich oft differenzierbar sein und kompakten Träger haben. Um Voraussetzungen zu formulieren, die das Falten von Distributionen erlaubt, benötigen wir noch den Begriff des Trägers einer Distribution:

Definition 33 Der Träger ${\mathrm{supp}(T)}$ einer Distribution ${T\in\mathcal{D}(\Omega)'}$ ist wie folgt definiert: ${ t_0\in\mathrm{supp}(T)}$ falls für jedes ${\epsilon>0}$ ein ${\phi\in\mathcal{D}(\Omega)}$ mit ${\mathrm{supp}(\phi)\subset B_\epsilon(t_0)}$ gibt, so dass ${T(\phi)\neq 0}$.

Der folgende Satz gibt Bedingungen unter denen die Faltung von zwei Distributionen erklärt ist an; wir geben ihn ohne Beweis.

Satz 34 Es seien ${T_1,T_2\in\mathcal{D}({\mathbb R})'}$ Distributionen und ${T_1}$ oder ${T_2}$ habe kompakten Träger. Dann ist

$\displaystyle (T_1*T_2)(\phi) = T_1(T_2(V_{-\tau}\phi))$

wohldefinierbar und wieder eine Distribution.

Die Faltung von Distributionen wird zum Beispiel im Buch “Functional Analysis” von Walter Rudin behandelt, siehe auch mein Skript zu Fouriertransformation und Distributionen, Abschnitt 3.6. Dass die Definition der Faltung von Distributionen kompliziert ist, lässt sich auch schon im Speziallfall der Faltung von Distribution und Funktion sehen:

Bemerkung 35 (Faltung von Distribution und Funktion) Mit dem Vorgehen aus dem obigen Satz lassen sich auch gewisse Funktionen mit gewissen Distributionen falten:

1. Hat nämlich ${f\in L^1_{\textup{loc}}({\mathbb R})}$ einen kompakten Träger, so hat die induzierte Distribution ${T_f}$ den gleichen Träger (siehe Übungsaufgaben). Insbesondere ist

$\displaystyle T_f( V_{-\tau}\phi) = \int_{\mathbb R} f(t)\phi(t+\tau){\mathrm d}{t} = (f*\phi)(-\tau)$

wieder eine Testfunktion und damit ist für jede Distribution ${S}$ der Ausdruck

$\displaystyle (S*T_f)(\phi) = S(T_f(V_{-\tau}\phi))$

wohldefiniert.

2. Hat andererseits eine Distribution ${S}$ kompakten Träger und ist ${f\in L^1_{\textup{loc}}({\mathbb R})}$ (jetzt auch ohne kompakten Träger), dann ist ${T_f(V_{-\tau}\phi) = \int_{\mathbb R} f(t)\phi(t+\tau) = (f*\phi)(-\tau)}$ zwar keine Testfunktion, aber immerhin unendlich oft differenzierbar (was aus der Ableitungsregel für die Faltung folgt). Um nun ${S}$ auf ${T_f(V_{-\tau}\phi) = (f*\phi)(-\tau)}$ anwenden zu können benötigen wir noch die Tatsache, dass sich Distributionen ${S:\mathcal{D}({\mathbb R})\rightarrow{\mathbb C}}$ mit kompakten Träger auf den Raum ${C^\infty({\mathbb R})}$ fortsetzen lassen, d.h. dass eine eindeutige stetige und lineare Fortsetzung ${S:C^\infty({\mathbb R})\rightarrow{\mathbb C}}$ gibt. In diesem Sinne ist dann auch ${S(T_f(V_{-\tau}\phi))}$ sinnvoll.

Da wir in der Notation nicht immer zwischen Funktion ${f}$ und induzierter Distribution ${T_f}$ unterscheiden, schreiben wir auch ${S*f}$ für die Faltung der Distributionen ${S}$ und ${T_f}$.

Beispiel 36 (Faltung mit ${\delta}$ und ${\delta'}$) Es sei ${T}$ eine Distribution. Dann ist

$\displaystyle (\delta*T)(\phi) = \delta(T(V_{-\tau}\phi) = T(V_0\phi) = T(\phi)$

was nichts anderes bedeutet als

$\displaystyle \delta*T = T.$

(Der Vollständigkeit halber betrachten wir noch ${(T*\delta)(\phi) = T(\delta(V_{-\tau}\phi)) =T(\phi)}$, es gilt also auch ${T*\delta = T}$). Speziell für Funktionen ${f}$ folgt auch

$\displaystyle \delta*f = f*\delta = f.$

Weiterhin gilt

$\displaystyle \delta'(V_{-\tau}\phi) = -\phi'(\tau)$

und es folgt

$\displaystyle (T*\delta')(\phi) = T(\delta'(V_{-\tau}\phi)) = -T(\phi') = T'(\phi)$

was nicht anderes bedeutet als

$\displaystyle T*\delta' = T'.$

Für Funktionen ergibt sich

$\displaystyle f*\delta' = f'\quad\text{(es gilt auch\ } \delta'*f = f'\text{)}.$

## 1.6. Lineare Differentialgleichungen und Anwendungen

In diesem Abschnitt behandeln wir die Lösung von Differentialgleichungen mit Hilfe der Laplace-Transformation. Wir beginnen mit linearen Differentialgleichungen ${n}$-ter Ordnung: Wir betrachten das Polynom

$\displaystyle P(s) = s^n + a_{n-1}s^{n-1} + \cdots a_0.$

Durch formales Einsetzen des Differentiationsoperators bekommen wir einen (linearen) Differentialoperator ${n}$-ter Ordnung

$\displaystyle P(\tfrac{{\mathrm d}{}}{{\mathrm d}{t}}) y = y^{(n)} + a_{n-1} y^{(n-1)} + \cdots a_0 y$

Zum Aufwärmen betrachten wir die homogene Differentialgleichung (d.h. mit rechter Seite ${\equiv 0}$):

Satz 37 Für die Lösung der Differentialgleichung

$\displaystyle P(\tfrac{{\mathrm d}{}}{{\mathrm d}{t}}) y = 0$

mit

$\displaystyle y(0) = y'(0) = \cdots y^{(n-2)}(0) = 0,\quad y^{(n-1)}(0)=1$

gilt