Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

Ziel der numerischen Integration (auch: numerische Quadratur) ist das Berechnen von bestimmten Integralen

abf(x)dx\int_a^b f(x)\diff x

für gegebene Funktionen f:[a,b]Rf:[a,b]\to\bbR. Dabei soll nicht die Stammfunktion von ff genutzt werden, sondern nur die Funktionswerte an endlichen vielen Stellen x1,,xn[a,b]x_1,\ldots,x_n\in[a,b].

9.1Idee

Verschiedene Ansätze führen zum Ziel. Die wichtigste Gruppe von numerischen Integrationsverfahren sind die sogenannten interpolatorischen Verfahren. Hier wird die Funktion ff an zweckmäßig (siehe unten) gewählten Stützstellen interpoliert, um dann das Integral der Interpolante zu berechnen. Sofern der Interpolationsfehler klein genug ist, wird der so berechnete Wert in der Nähe des tatsächlichen Wertes des Integrals liegen.

Neben einfacher Polynominterpolation kommen vorallem stückweise Polynome und Splines zum Einsatz. Integrale von Polynomen lassen sich mit den Computer exakt berechnen. Neben der Frage der Kondition ist hier, analog zu den Lösungsverfahren für nichtlineare Gleichungen, insbesondere die Frage der Konvergenz zu klären, da auch beim exakten Rechnen ohne Rundungsfehler nur eine Näherungslösung zu erwarten ist.

Numerische Integrationsverfahren können auch danach beurteilt werden, für welche Funktionsklassen sie exakte Lösungen liefern. Meist sind diese Polynome bis zu einem gewissen Grad.

9.2Kondition

Die Kondition ist somit gut, außer für Funktion ff mit abf(x)dx0\int_a^b f(x)\diff x\approx 0. In diesem Fall führen auch kleine absolute Ausgabefehler zu großen relativen Fehlern aufgrund von Auslöschungseffekten.

9.3Konvergenz

Bezeichnen wir mit InI_n den auf der Grundlage von Funktionsauswertungen an nn Stützstellen x1,,xnx_1,\ldots,x_n erhaltenen Näherungswert für das exkate Integral II, so sollte ein Verfahren für die numerische Integration die Bedingung

limnIIn=0\lim_{n\to\infty}|I-I_n|=0

erfüllen. Man sagt dann: Das verfahren konvergiert.

Im Gegensatz zu Lösungsverfahren für nichtlineare Gleichungen spielt der Begriff der Konvergenzordnung bei der numerischen Integration nur eine untergeordnete Rolle.

9.4Exaktheit

Werden nn Stützstellen verwendet, so ist klar, dass man stets ein Verfahren findet, welches exakt vom Grad n1n-1 ist (ersetze ff durch das entsprechende Interpolationspolynom). Weiter unten werden wir sehen, dass auch Verfahren mit Exaktheitsgrad 2n12\,n-1 möglich sind.

9.5Allgemeiner Ansatz

Da sinnvollerweise In0I_n\geq 0 für alle nichtnegativen Funktionen ff gelten soll, ist klar, dass nur positive Gewichte wkw_k in Frage kommen.

Soll das Verfahren wenigstens exakt vom Grad 0 sein (also konstante Funktionen exakt integrieren), so muss

k=1nwk=ba\sum_{k=1}^n w_k=b-a

gelten (IDVID 920).

9.6Newton-Cotes-Formeln

9.6.1Idee

Wählt man die Stützstellen äquidistant, also

xk:=a+(ba)k1n1,k=1,,n,x_k:=a+(b-a)\,\frac{k-1}{n-1},\quad k=1,\ldots,n,

und ersetzt die zu integrierende Funktion ff durch das entsprechende Interpolationspolynom vom Grad n1n-1, so erhält man die so genannten Newton-Cotes-Quadraturformeln. Sind Ln1,1,,Ln1,nL_{n-1,1},\ldots,L_{n-1,n} die Langrange’schen Basispolynome, so folgt

wk=abLn1,k(x)dxw_k=\int_a^b L_{n-1,k}(x)\diff x

(IDVID 930).

Newton-Cotes-Formeln liefern Verfahren mit Exaktheitsgrad n1n-1. Man kann sogar Exaktheitsgrad nn zeigen bei ungeradem nn (tun wir hier nicht), wenn man Symmetrieeigenschaften der Lagrange-Basispolynome ausnutzt. Allerdings ist auch bekannt, dass ab n=9n=9 negative Gewichte auftreten. Somit ist der sinnvolle Einsatz nur bei sehr geringer Stützstellenanzahl möglich.

Ein Ausweg sind sogenannte summierte Formeln: Für je mm benachbarte Stützstellen wende die Newton-Cotes-Formel an und addiere alle so erhaltenen Teilresultate. Ist n=smn=s\,m, so wird die Newton-Cotes-Formel also ss-mal angewendet. Dieses Verfahren ist dann exakt vom Grad m1m-1.

9.6.2Approximationsfehler

Ausgehend von der Abschätzung des Approximationsfehlers bei der Polynominterpolation kann man folgendes Resultat zeigen:

Je mehr Stützstellen genutzt werden, desto kleiner ist hh und desto kleiner wird der Approximationsfehler werden. Je größer mm, desto schneller sinkt der Fehler bei Erhöhung der Stützstellenanzahl.

9.6.3Beispiele

9.6.3.1Rechteckregel

Für m=1m=1 (Interpolationspolynome vom Grad 0) wird pro Interpolationspolynom nur eine Stützstelle benötigt, sodass nicht klar ist, auf welchem Intervall die einzelnen Interpolationspolynome zum Einsatz kommen. Zwei Varianten sind üblich (h:=1n1h:=\frac{1}{n-1}):

Bei der ersten Variante ist die Quadraturformel etwas komplizierter:

In=1n1(12f(x1)+k=2n1f(xk)+12f(xn)).I_n=\frac{1}{n-1}\,\left(\frac{1}{2}\,f(x_1)+\sum_{k=2}^{n-1}f(x_k)+\frac{1}{2}\,f(x_n)\right).

Bei der zweiten Variante ist die Formel einfacher, aber die letzte Stützstelle (Intervallende) hat keinerlei Einfluss:

In=1n1k=1n1f(xk).I_n=\frac{1}{n-1}\,\sum_{k=1}^{n-1}f(x_k).

Verdoppelt man die Stützstellenanzahl, so wird sich der Approximationsfehler etwa halbieren.

9.6.3.2Trapezregel

Für m=2m=2 werden pro Interpolationspolynom zwei Stützstellen benötigt. Jedes Interpolationspolynom deckt also den Bereich zwischen zwei benachbarten Stützstellen ab. Statt der Funktion ff wird somit das Integral einer stückweise linearen Approximation berechnet.

In=k=1n1xk+1xk2(f(xk)+f(xk+1))=h2f(x1)+hk=2n1f(xk)+h2f(xn).{\begin{align} I_n&=\sum_{k=1}^{n-1}\frac{x_{k+1}-x_k}{2}\bigl(f(x_k)+f(x_{k+1})\bigr)\\ &=\frac{h}{2}\,f(x_1)+h\,\sum_{k=2}^{n-1}f(x_k)+\frac{h}{2}\,f(x_n). \end{align}}

Bei Verdoppelung der Stützstellenanzahl wird der Approximationsfehler etwa auf ein Viertel reduziert.

9.6.3.3Simpson-Regel

Für m=3m=3 werden pro Interpolationspolynom drei Stützstellen benötigt. Jedes Interpolationspolynom deckt also den Bereich zwischen drei benachbarten Stützstellen ab. Statt der Funktion ff wird somit das Integral einer stückweise quadratischen Approximation berechnet. Achtung: Die Anzahl der Stützstellen muss hier ungerade sein.

In=h3f(x1)+h3f(xn)+2h3k=1n32f(x2k+1)+4h3k=1n12f(x2k)I_n=\frac{h}{3}\,f(x_1)+\frac{h}{3}\,f(x_n)+\frac{2\,h}{3}\,\sum_{k=1}^\frac{n-3}{2}\,f(x_{2k+1})+\frac{4\,h}{3}\,\sum_{k=1}^\frac{n-1}{2}\,f(x_{2k})

9.7Gauss-Quadratur

Wählt man die Stützstellen für die Polynominterpolation nicht äquidistant, kann man unter Umständen numerische Integrationsverfahren finden, deren Exaktheitsgrad bei nn Stützstellen größer als n1n-1 ist. Der maximal mögliche Exaktheitsgrad liegt bei 2n12\,n-1 (IDVID 970).

Man kann zeigen (zun wir hier nicht), dass der maximale Exaktheitsgrad erreicht wird, wenn die Stützstellen gerade die Nullstellen des Legendre-Polynoms vom Grad nn sind und die Gewichte wie bei den Newton-Cotes-Formeln als Integrale der Lagrange-Basispolynome gewählt werden. Das so konstruierte, aus Sicht des Exaktheitsgrades optimale numerische Integrationsverfahren wird als Gauß-Quadratur bezeichnet (manchmal auch Gauß-Legendre-Quadratur).

Auch kann man zeigen, dass die Gewichte auch bei größerem nn im Gegensatz zu den Newton-Cotes-Formeln stets positiv sind, sodass die Gauss-Quadratur weniger anfällig für Auslöschungseffekte ist als Newton-Cotes-Formeln.

Beachte: Die Gauß-Quadraturformeln werden meist nur für das Intervall [1,1][-1,1] angegeben. Soll über ein anderes Intervall [a,b][a,b] integriert werden, so sind als Stützstellen und Gewichte

xk=ba2x~k+a+b2undwk=ba2w~kx_k=\frac{b-a}{2}\,\tilde{x}_k+\frac{a+b}{2}\quad\text{und}\quad w_k=\frac{b-a}{2}\,\tilde{w}_k

zu verwenden, wobei x~k\tilde{x}_k und w~k\tilde{w}_k die Stützstellen und Gewichte für das Intervall [1,1][-1,1] sind.

9.8Monte-Carlo-Verfahren

Das Integral

I=abf(x)dxI=\int_a^b f(x)\diff x

kann als Erwartungswert einer Zufallsgröße interpretiert werden. Sei dazu XX eine auf [a,b][a,b] gleichverteilte Zufallsgröße und sei Y:=f(X)Y:=f(X) die durch Anwenden von ff daraus entstehende transformierte Zufallsgröße. Mit der Dichtefunktion pX(x)=1bap_X(x)=\frac{1}{b-a} zu XX gilt

EY=abf(x)pX(x)dx.\bbE Y=\int_a^b f(x)\,p_X(x)\diff x.

Somit

I=(ba)abf(x)pX(x)dx=(ba)EX.I=(b-a)\,\int_a^b f(x)\,p_X(x)\diff x=(b-a)\,\bbE X.

Den Erwartungswert EX\bbE X der Zufallsgröße XX kann man über den Mittelwert aus nn Realisierungen x1,,xnx_1,\ldots,x_n annähern. Setzen wir

In:=(ba)1nk=1nf(xk)I_n:=(b-a)\,\frac{1}{n}\,\sum_{k=1}^n f(x_k)

so gilt nach dem Gesetz der großen Zahlen in gewissem Sinne also limnIn=I\lim\limits_{n\to\infty}I_n=I.

Die Konvergenzgeschwindigkeit ist jedoch relativ gering. Der Fehler IIn|I-I_n| verhält sich wie 1n\frac{1}{\sqrt{n}} für große nn (siehe Konvergenzgeschwindigkeit im Gesetz der großen Zahlen. Das Gesetz vom iterierten Logarithmus (Josef Steinebach, Uni Köln) und Gesetz des iterierten Logarithmus für Details). Die Trapezregel liefert hingegen beispielsweise einen Fehler in der Größenordnung 1n2\frac{1}{n^2}. Aber: Möchte man mehrdimensionale Integrale berechnen, so bleibt beim Monte-Carlo-Verfahren der Fehler in der Größenordnung 1n\frac{1}{\sqrt{n}}, während er bei der Trapezregel auf n2dn^{-\frac{2}{d}} steigt (dd ist die Dimension des Integrationsbereichs).

Neben der niedrigen Konvergenzgeschwindigkeit für eindimensionale Integrale ist ein weiter Nachteil des Monte-Carlo-Verfahrens, dass bei jeder Auswertung des Integrals ein etwas anderer Wert ermittelt wird.