Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

Das wissenschaftliche Rechnen (auch: Scientific Computing) als Fachgebiet umfasst alle Aspekte des Einsatzes von Computern zur Klärung von Fragestellungen aus Naturwissenschaften, Technik und Wirtschaft. Das Spektrum reicht von der Modellierung realer Vorgänge über die Implementierung am Computer bis zur Visualisierung der erzielten Resultate.

Der erfolgreiche Einsatz des wissenschaftlichen Rechnens erfordern die Zusammenarbeit von Anwendern aus dem jeweiligen Wissenschaftsbereich, Mathematikern und Informatikern. Alle Beteiligten sollten neben Detailwissen in ihrem Gebiet auch einen Überblick über den Gesamtprozess haben. Nur so sind Missverständnisse in der Kommunikation und Fehlinterpretationen der jeweiligen Anforderungen zu vermeiden.

1.1Zu lösende Teilprobleme

Wesentliche Schritte beim wissenschaftlichen Rechnen sind:

Am Ende sollte ein Software-Produkt vorliegen, welches Ergebnisse mit bekannter Genauigkeit liefert. Ein Schwerpunkt des wissenschaftlichen Rechnens wird also die Fehleranalyse sein. Ohne solide Fehleranalyse sind die erzielten Ergebnisse nicht vertrauenswürdig und damit im Wesentlichen unbrauchbar! Manchmal kann man die Ergebnisse durch reale Messungen validieren, oft aber nicht oder nicht in hinreichendem Umfang.

Das wissenschaftliche Rechnen ist also eng verbunden mit der numerischen Mathematik. Eine genaue Abgrenzung ist nicht möglich. Üblicherweise zählt man das Entwickeln und Untersuchen von Algorithmen für klar abgegrenzbare, unabhängig vom konkreten Anwendungsfall immer wiederkehrende Teilaufgaben zur numerischen Mathematik. Komplexere Algorithmen und die Koordinierung der Einzelschritte zu einem Gesamtprozess werden hingegen dem wissenschaftlichen Rechnen zugeordnet.

1.2Beispiele

Die folgenden Beispiel dienen zur Verdeutlichung der im wissenschaftlichen Rechnen zu lösenden Probleme und Teilprobleme. Später werden wir einige der Beispiele detaillierter untersuchen.

1.2.1Brachistochrone

Anwendungsproblem: Eine Kugel soll sich aus “eigener” Kraft (Schwerkraft) entlang einer Bahn von einem höher gelegenen Startpunkt zu einem niedriger gelegenen Zielpunkt bewegen. Wie ist die Bahn zu Formen, damit die Kugel in möglichst kurzer Zeit den Zielpunkt erreicht? Diese optimale Bahn heißt Brachistochrone (Wikipedia).

Modell: Sind (x1,y1)(x_1,y_1) und (x2,y2)(x_2,y_2) Start- und Zielpunkt, so kann die Bahn als Funktion h:[x1,x2]Rh:[x_1,x_2]\to\bbR beschrieben werden, insbesondere gilt also h(x1)=y1h(x_1)=y_1 und h(x2)=y2h(x_2)=y_2. Man kann zeigen, dass die benötigte Zeit T(h)T(h) für das Durchlaufen der Bahn hh mittels

T(h)=12gx1x21+h(x)2h(x)dxT(h)=\frac{1}{\sqrt{2\,g}}\,\int_{x_1}^{x_2}\sqrt{\frac{1+h'(x)^2}{-h(x)}}\diff x

berechnet werden kann. Dabei ist gg die wirkende Fallbeschleunigung. Die optimale Bahn ist somit als Lösung des Minimierungsproblems

T(h)minhHT(h)\to\min_{h\in H}

gegeben, wobei HH die Menge aller stetig differenzierbaren Funktionen mit h(x1)=y1h(x_1)=y_1 und h(x2)=y2h(x_2)=y_2 sein soll.

An diesem recht einfachen Problem und seiner Modellierung treten schon verschiedene Aspekte des wissenschaftlichen Rechnens zutage:

Diskretisierung: Die Menge aller stetig differenzierbaren Funktionen ist nicht mit dem Computer darstellbar. Somit müssen wir uns auf eine hinreichend repräsentative, aber endlic hdimensionale Menge von Funktionen als Suchraum bei der Optimierung beschränken. Kandidaten sind Polynome oder stückweise Polynome, jedoch auch eine ganze Reihe anderer Ansätze. Man kann zeigen, dass die optimale Bahn h(x1)=h(x_1)=-\infty erfüllt. Mit Polynomen wird man diese Bedingung nie erfüllen können. Verwendet man stückweise Polynome, so sollten die Teilintervalle in der Nähe von x1x_1 sehr klein sein, damit der starke Abfall von hh dort gut angenähert werden kann. Obwohl die gesuchte Funktion differenzierbar ist, können auch nicht differenzierbare Ansätze wie stückweise lineare Funktionen zum Ziel führen (keep it simple). Dabei ist die Frage zu klären, was eigentlich das Ziel ist. Geht es nur um die Visualisierung der optimalen Bahn? Dann reicht eine stückweise lineare Näherungslösung aus. Oder soll die optimale Bahn in Folgeprozessen verwendet werden, die auf Ableitungen beruhen (z.B. tiefsten Punkt der Bahn analytisch berechnen)? Dann muss sollte auch die Näherungslösung differenzierbar sein.

Implementierung: Welchen Algorithmus zur Lösung des diskretisierten Optimierungsproblems wählen? Gibt es anwendbare Standardalgorithmen aus Bibliotheken oder muss ein auf die konkrete Aufgabe maßgeschneiderter Algorithmus entwickelt werden? In welcher Form das das Ergebnis geliefert werden? Nur die optimale Bahn hh oder beispielsweise eine Animation der Bewegung der Kugel entlang der Bahn mit korrekter Geschwindigkeit bzw. Beschleunigung? Beachte: Die gewählte Diskretisierung hat Einfluss auf die Art des entstehenden endlichdimensionalen Optimierungsproblems und damit auf die Auswahl der Algorithmen!

Randbemerkung: Das Brachistochrone-Problem kann man analytisch lösen, sodass eine numerische Lösung eigentlich nicht nötig ist. Dennoch sieht man an diesem einfachen Beispiel gut, wie vielfältig die zu klärenden Fragen beim wissenschaftlichen Rechnen selbst für einfache Problem sind.

1.2.2Laplace-DLTS

Anwendungsproblem: Neben Silizium werden zunehmend alternative Materialien für Solarzellen untersucht und teils auch schon eingesetzt. Dazu gehört das recht preiswerte Material Perowskit. Durch noch nicht hinreichend präzise kontrollierbare Produktionsprozesse kann es zu Materialfehlern kommen, welche den Wirkungsgrad der Solarzellen verringern. Deshalb ist man an experimentellen Verfahren interessiert, die Einblick in die Art der Materialfehler geben, um diese anschließend die Produtionsprozesse gezielt zu verbessern. Ein solches Verfahren ist Laplace-DLTS (Laplace deep-level transient spectroscopy).

Die für Laplace-DLTS verwendeten experimentellen Messergebnisse sind ohne weitere algorithmische Auswertung nicht verwertbar. Vereinfacht dargestellt: Sogenannte Elektronenfallen im Material (Materialfehler) werden mit Ladungung gefüllt und anschließend beobachtet man das relativ langsame Abfließen der Ladungen aus den Fallen. Dieser Vorgang wird bei verschiedenen Temperaturen wiederholt. Es entsteht eine Folge von sogenannten Transienten.

Transienten zu verschiedenen Temperaturen.

Gesamttransienten tC(t)t\mapsto C(t) zu verschiedenen Temperaturen TT (gemessene Eingangsdaten für das Modell). Die Transienten wurden mit dem Faktur 1C0\frac{1}{C_0} skaliert.

Jede gemessene Transiente entsteht durch Überlagerung der Transienten mehrerer Elektronenfallen im Material. Da das Abklingverhalten einer Einzeltransiente bekannt ist (Exponentialfunktion), kann die Überlagerung rückgängig gemacht werden. Man erhält als Modell für die Entstehung der Transienten die Laplace-Transformation

C(t)=0g(s)estds.C(t)=\int_0^\infty g(s)\,\rme^{-s\,t}\diff s.

Dies ist eine lineare Integralgleichung. Dabei ist CC die in Abhängigkeit der Zeit tt gemessene Gesamttransiente zu einer festen Temperatur und gg ist die Verteilung der Abklinggeschwindigkeiten in der Menge aller Einzeltransienten. Typischerweise wird gg aus wenigen sehr scharfen Peaks bestehen. Aus Position, Höhe und Breite der Peaks kann auf Art und Anzahl der Materialfehler geschlossen werden. Trägt man die Peak-Positionen bei verschiedenen Temperturen in ein Diagramm ein, so erhält man einen sogenannten Arrhenius-Plot. Dieser zeigt typischerweise abfallende Gerade, aus deren Lage und Neigung auf weitere Materialeigenschaften geschlossen werden kann.

Arrhenius-Plot zu zwei verschiedenen Messreihen.

Arrhenius-Plot zu zwei verschiedenen Messreihen (blau und rot). Die Anordnung der Punkte entlang von Geraden ist gut erkennbar Die Farbintensität der Punkte gibt die Höhe der entsprechenden Peaks in der berechneten Funktion gg an.

Modellierung: Grundfrage ist hier, ob mehrere Einzelmodelle verwendet werden sollen, also

oder ob das Problem “Ende-zu-Ende” formuliert werden soll: Finde Lage und Anstieg der Geraden im Arrhenius-Plot aus den CC-Messungen bei verschiedenen Temperaturen. Die erste Variante ist einfacher zu modellieren, da jedes Teilmodell eine klar abgegrenzte Aufgabe löst. Die zweite Variante vermeidet eventuelle Ungenauigkeiten in den Einzelschritten (Peak-Position bei breiten Peaks,...), ist aber in der mathematischen Formulierung sehr anspruchsvoll. Die zweite Variante ist ein typischer Kandidat für mittels maschinellem Lernen erstellte Modelle, sofern genügend Trainingsdaten beschafft werden können (siehe später). Verfolgen hier nur die erste Variante weiter.

Diskretisierung: Klar ist, dass sowohl gg als auch CC durch Vektoren zu ersetzen sind, z.B. als Werte von stückweise linearen Funktionen an den Stützstellen. Da CC direkt aus Messungen entsteht, sollte sich die Diskretisierung hier an den messtechnischen Gegebenheiten orientieren. Im konkreten Anwendungsfall besteht eine CC-Messung aus ca. 300000 Messwerten an äquidistanten Stützstellen. Wird diese hohe Auflösung beibeihalten, entsteht ein extrem hoher Rechenaufwand! Gleichmäßiges Ausdünnen der Messpunkte führt allerdings zu Datenverlust. Ob dieser hinnehmbar ist, muss mit den Anwendern geklärt werden. Es stellt sich heraus, dass diese hohe Auflösung am Anfang des Messzeitraums notwendig ist (sehr schnell abfallende Einzeltransienten), im weiteren Zeitverlauf aber zunehmend ausgedünnt werden kann (langsam abfallende Einzeltransienten). Für CC ist also eine geeignete nichtäquidistante Diskretisierung zu wählen. Für die Abklingratenfunktion gg sieht es ähnlich aus. Werte Nahe der Null müss präzise darstellbar sein; größere Werte können mit geringerer Genauigkeit wiedergegeben werden. Alternative: Da aufgrund physikalischer Gegebenheit gg nur aus wenigen Peaks besteht, kann man gg auch als Summe von Einzelpeaks darstellen. Der Zusammenhang zwischen den entsprechenden Parametern von gg (Peak-Positionen, PeakHöhen) und der Funktion CC ist dann allerdings nichtlinear, was das algorithmische Invertieren der Laplace-Transformation deutlich erschwert.

Implementierung: Das numerische Invertieren der Laplace-Transformation ist sehr schwierig, obwohl es sich (nach Diskretisierung) um ein lineares Gleichungssystem handelt. Problem ist die extrem hohe Kondition dieses Gleichungssystems, welche um so höher ist, je feiner (!) diskretisiert wird. Einzige Rettung ist das Einbringen von Zusatzinformationen über die Lösung (z.B. dass diese nur wenige scharfe Peaks hat), was algorithmisch sehr anspruchsvoll werden kann. Siehe Improved evaluation of deep-level transient spectroscopy on perovskite solar cells reveals ionic defect distribution für einen konkreten Algorithmus.

Sehen auch hier typische Aspekte des wissenschaftlichen Rechnens:

1.2.3SD-SPIDER

Die kürzesten je von Menschen erzeugten Ereignisse sind mit Femtosekundenlasern erzeugte ultrakurze Laserpulse. Jeder Puls dauert nur wenige Femtosekunden (die Lichtgeschwindigkeit liegt bei 0.3 Mikrometer pro Femtosekunde). Zur Untersuchung solcher Laserpulse können keine einfachen Verfahren eingesetzt werden, da diese praktisch immer auf Abtastung des Signals basieren. Das Signal ist hier aber kürzer als der Abstand zwischen zwei Abtaststellen selbst bei optischen Verfahren.

Eine Möglichkeit zur Charakterisierung von ultrakurzen Laserpulsen ist SD-SPIDER (self-diffraction spectral phase interferometry for direct electric field reconstruction). Kurzfassung: Der zu untersuchende Laserpuls wird auf verschiedene Weisen transformiert und dann mittels eines nichtlinearen optischen Materials (Bariumfluorid) wieder zusammengeführt. Das Ergebnis kann dann durch einen Spektrograf aufgenommen werden. Die ursprüngliche Pulsform kann daraus jedoch nicht direkt abgelesen werden, sondern erfordert relativ komplexe Berechnungen.

Versuchsaufbau für SD-SPIDER.

Versuchsaufbau für SD-SPIDER mit Strahlverlauf (Foto aufgenommen von S. Birkholz, Max-Born-Institut für Nichtlineare Optik und Kurzzeitspektroskopie, Berlin; Strahlverlauf und Beschriftung vom Autor eingefügt).

Schematischer Versuchsaufbau für SD-SPIDER

Schematischer Versuchsaufbau für SD-SPIDER.

Modellierung: Aus physikalischen Zusammenhängen kann man ableiten, dass der Zusammenhang zwischen gemessener Funktion y:RCy:\bbR\to\bbC (aus Spektrograf) und gesuchter Funktion x:[0,1]Cx:[0,1]\to\bbC (auf Einheitsintervall transformierte Pulsform) durch die nichtlineare Integralgleichung

y(s)=min{0,1s}max{1,2}k(s,t)x(t)x(st)dt,s[0,2]y(s)=\int\limits_{\min\{0,1-s\}}^{\max\{1,2\}}k(s,t)\,x(t)\,x(s-t)\diff t,\quad s\in[0,2]

gegeben ist. Dabei ist kk eine bekannte Funktion, die sogenannte Kernfunktion. Diese enthält Informationen über das eingesetzte nichtlineare Material und weitere Parameter des Experiments. Gleichungen dieser Form heißen Selbstfaltungsgleichungen.

Diskretisierung: Für die Diskretisierung können Standardverfahren eingesetzt werden (z.B. stückweise konstante Funktionen). Allerdings ist zu beachten, dass die Funktionen xx und yy komplexwertig sind, Funktionswerte also als Paar von reellen Zahlen anzusehen sind mit entsprechenden Anpassungen bei den Rechenoperationen. Ergebnis ist ein nichtlineares Gleichungssystem mit sehr schlechter Kondition (je feiner diskretisiert wird, desto schlechter die Kondition).

Implementierung: Für das zu lösende nichtlineare Gleichungsystem ist kein Algorithmus bekannt, der garantiert die korrekte Lösung oder wenigstens eine hinreichend gute Näherungslösung liefert. Standardverfahren (z.B. Newton-Verfahren) sind im Prinzip anwendbar, aber keine der dafür bekannten Konvergenzaussagen ist im konkreten Fall zutreffend, da das Gleichungssystem die in diesen Aussagen formulierten Voraussetzungen nicht erfüllt. Auf der anderen Seite hat das Gleichungssystem viel Struktur, die sich ggf. zur Entwicklung von Algorithmen nutzen lässt. In der Tat stellt sich heraus, dass man die hier vorhandene “quadratische” Struktur nutzen kann für eine Zerlegung in zwei Teilprobleme. Eins davon ist ein (großes, aber leicht parallelisierbares) lineares Gleichungssystem. Das andere ist ein Eigenwertproblem, welches mit Standardverfahren gelöst werden kann. Für Details siehe Deautoconvolution: A new decomposition approach versus TIGRA and local regularization

Wir sehen:

1.2.4Lorenz-System

Schon in der Anfangszeit der Computer wollte man Wetterphänomene simulieren und zukünftige Entwicklungen in der Atmosphre vorhersagen. Aufgrund technischer Beschränkungen mussten die Fragestellungen mit sehr einfachen Modellen formuliert und beantwortet werden. Eins davon ist das Lorenz-System, welches Aussagen zum vertikalen Wärme- und Feuchtigkeitstransport in der Atmosphäre liefert.

Modellierung: Sind xx, yy, zz von der Zeit tt abhängige Atmosphärenparameter (vertikaler Feuchtetransport pro Zeiteinheit, Temperaturdifferenz zwischen auf- und absteigenden Luftmassen, Abweichung des vertikalen Temperaturprofils von einer linearen Funktion), so ist deren Zusammenhang durch ein System nichtlinearer gewöhnlicher Differentialgleichungen gegeben:

x(t)=a(y(t)x(t)),y(t)=x(t)(bz(t))y(t),z(t)=x(t)y(t)cz(t).{\begin{align} x'(t)&=a\,(y(t)-x(t)),\\ y'(t)&=x(t)\,(b-z(t))-y(t),\\ z'(t)&=x(t)\,y(t)-c\,z(t). \end{align}}

Dabei sind aa und bb Materialparameter der strömenden Luft und cc gibt gewissen geometrische Eigenschaften des betrachteten Luftvolumens an.

Diskretisierung: Für das Lösen von gewöhnlichen Differentialgleichungen existieren zahlreiche Verfahren. Die meisten nutzen zur Diskretisierung stückweise lineare Funktionen.

Implementierung: Es können Standardalgorithmen für gewöhnliche Differentialgleichungen genutzt werden. Allerdings ist bei der Auswahl zu beachten, diese mit der Tatsache umgehen können, dass das Differentialgleichungssystem schlecht konditioniert ist, also kleine Änderungen in aa, bb, cc zu extrem großen Änderungen in der Lösung führen können (schlechte Kondition). Art und Umfang dieser Abweichungen sehen sehr unsystematisch aus, weshalb man den Lösungen des Lorenz-Systems auch von chaotischem Verhalten spricht. In Kontext des Lorenz-Systems wurde auch erstmals der Begriff Schmetterlingseffekt genutzt.

Bemerkenswerte Aspekte:

1.2.5Wärmeleitung

Ein während des Produktionsprozesses durch und durch erhitztes Stahlteil muss vor dem nächsten Verarbeitungsschritt unter eine zulässig Höchsttemperatur abkühlen. Wie lange dauert es bis auch im Inneren des Bauteils in jedem Punkt diese Temperatur unterschritten wird?

Modellierung: Bezeichnen mit BR3B\subseteq\bbR^3 das Bauteil als Teilmenge des Raumes und mit B\partial B dessen Oberfläche. Sei u:B×[0,)Ru:B\times[0,\infty)\to\bbR die zeitabhängige Temperaturverteilung im Bauteil; u(x,t)u(x,t) gibt also die Temperatur zur Zeit tt im Punkt xBx\in B an. Der Abkühlprozess beginne bei t=0t=0. Aus physikalischen Überlegungen und Gesetzmäßigkeiten erhält man den Zusammenhang

(x1)2u(x,t)+(x2)2u(x,t)+(x3)2u(x,t)=atu(x,t)\left(\frac{\partial}{\partial x_1}\right)^2 u(x,t)+\left(\frac{\partial}{\partial x_2}\right)^2 u(x,t)+\left(\frac{\partial}{\partial x_3}\right)^2 u(x,t) =a\,\frac{\partial}{\partial t} u(x,t)

für alle xBx\in B und alle t0t\geq 0, wobei a>0a>0 ein Materialparameter ist, der im Wesentlichen die Wärmeleitfähigkeit des Materials wiedergibt. Sind TUT_{\mathrm{U}} und T0T_0 die Umgebungstemperatur und die Temperatur des Bauteils zur Zeit t=0t=0, so kommen noch die Anfangsbedingung

u(x,0)=T0fu¨r alle xBu(x,0)=T_0\quad\text{für alle }x\in B

und die Randbedingung

u(x,t)=TUfu¨r alle xB und alle t>0u(x,t)=T_{\mathrm{U}}\quad\text{für alle }x\in\partial B\text{ und alle }t>0

zu dieser partiellen Differentialgleichung hinzu.

Diskretisierung: Die Diskretisierung kann mittels Standardverfahren erfolgen. Diese führen auf ein lineares Gleichungssystem. Zu beachten ist, dass die Geometrie des Körpers wesentlichen Einfluss auf die Diskretisierung hat. Das Diskretisieren von partiellen Differentialgleichungen ist wesentlicher Bestandteil dieser Veranstaltung.

Implementierung: Grundsätzlich stehen vielfältige Algorithmen in Software-Bibliotheken zur Verfügung. Je nach Geometrie des Bauteils können aber Anpassungen oder Erweiterungen nötig sein.

Relevante Aspekte:

1.2.6Elektrische Impedanz-Tomografie

Möchte man das Innere eines Testobjekts zerstörungsfrei untersuchen, kommen verschiedene Tomografieverfahren in Betracht. Eins davon, welches insbesondere in der medizinischen Bildgebung im Einsatz ist, aber mit leichten Modifikationen auch zur Untersuchung von Bodenverhältnissen und Rohstofflagerstätten dient, ist die elektrische Impedanz-Tomografie. Hier werden an der Oberfläche des Testobjekts Elektroden angebracht und in verschiedenen Kombinationen Spannungen angelegt. Die daraus an den anderen Elektroden resultierenden Ströme können gemessen werden und geben Aufschluss über die (ortsveränderliche) Leitfähigkeit und damit über Materialstrukturen im Inneren des Testobjekts.

Modellierung: Sei BR2B\subseteq\bbR^2 das Testobjekt und seien die Elektroden gleichmäßig über dessen Rand B\partial B verteilt (ringförmige Anordnung der Elektroden an Testkörper, somit reicht 2D-Betrachtung). Die Leitfähigkeit im Testkörper sei durch eine unbekannte Funktion a:BRa:B\to\bbR gegeben. Bezeichnen wir mit u:BRu:B\to\bbR das elektrische Potential im Testobjekt, so folgt aus physikalischen Überlegungen und Gesetzmäßigkeiten, dass die partielle Differentialgleichung

x1(a(x)x1u(x))+x2(a(x)x2u(x))=0\frac{\partial}{\partial x_1}\left(a(x)\,\frac{\partial}{\partial x_1}u(x)\right) +\frac{\partial}{\partial x_2}\left(a(x)\,\frac{\partial}{\partial x_2}u(x)\right) =0

erfüllt sein muss. Das Anlegen von Spannungen an verschiedenen Elektrodenkombinationen entspricht der Vorgabe verschiedener Randwerte ff für Lösungen uu dieser Gleichung:

u(x)=f(x)fu¨r alle xB.u(x)=f(x)\quad\text{für alle }x\in\partial B.

Die daraus resultierenden Strommessungen entlang des Randes von BB liefern jeweils ein Funktion gg mit

a(x)nu(x)=g(x)fu¨r alle xB,a(x)\,\frac{\partial}{\partial n}u(x)=g(x)\quad\text{für alle }x\in\partial B,

wobei nu(x)\frac{\partial}{\partial n}u(x) die Richtungsableitung von uu am Randpunkt xx in Richtung des Normalenvektors des Randes an diesem Punkt bezeichnet. Eingangsdaten in das Modell der elektrischen Impedanz-Tomografie sind nun hinreichend viele Paare (f,g)(f,g) aus angelegten Spannungen und daraus resultierenden Strömen. Die Ausgabe des Modells ist die ortsabhängige Leitfähigkeit aa. Aus der Kenntnis von Eigenschaften der Lösungen (Randwerte, Fluss über den Rand) soll also auf einen Parameter der zugrunde liegenden partiellen Differentialgleichung geschlossen werden. Diese Art von Aufgabenstellungen nennt man deshalb auch Parameteridentifikationsprobleme.

Diskretisierung: Die Diskretisierung kann mit Standardverfahren erfolgen. Allerdings muss unbedingt die Geometrie der Elektroden mit eingebracht werden um brauchbare Resultate erhalten zu können.

Implementierung: Algorithmen für das Lösen des Impedanz-Tomografie-Problems sind in gewissem Maße noch Gegenstand der Forschung. Letztlich kann man Standardverfahren kombinieren, erhält aber nur sehr schwache Aussagen über die Vertrauenswürdigkeit der Lösungen. Zu allen angelegten Spannungen kann man bei gegebener Leitfähigkeitsverteilung durch Lösen der Differentialgleichung die zu erwartenden Ströme berechnen. Diese vergleicht man mit den gemessenen Strömen und passt die Leitfähigkeitsverteilung ausgehend von einer initialen Verteilung so lange an, bis die Abweichung zwischen berechneten und gemessenen Strömen klein genug ist. Dieser algorithmische Ansatz löst also ein nichtlineares Minimierungsproblem iterativ, wobei jede einzelne Auswertung der Zielfunktion das Lösen mehrerer partieller Differentialgleichungen erfordert (eine Gleichung pro Spannungs-Strom-Paar).

1.3Fallstudien

Wissenschaftliches Rechnen ist ein sehr umfassendes und fachübergreifendes Thema. In dieser Veranstaltung werden wir keine systematische Abhandlung vornehmen, sondern uns anhand mehrerer umfangreicher Fallstudien mit exemplarischen Anwendungsszenarien und deren Umsetzung von der Modellierung bis zur Implementierung befassen.

Nur an einigen Punken, insbesondere mit Blick auf partielle Differentialgeleichungen, werden wir tiefer in die theoretische Fundierung und Motivation von Algorithmen einsteigen. Partielle Differentialgleichungen sind das Hauptwerkzeug für die Modellierung. Es wird sich allerdings zeigen, dass man große Klassen partieller Differentialgleichungen durch Transformation in Integralgleichungen lösen kann (und dies auch tut), sodass die Diskussion von Integralgleichungen nicht ausgleiben kann.

Hauptziele der Veranstaltung sind:

1.4Sleipner A zur Mahnung

Als Negativbeispiel sei der Untergang der norwegischen Ölbohrplattform “Sleipner A” in der Nordsee am 23. August 1991 noch während des Baus erwähnt. Die tragende Betonkonstruktion wurde ausschließlich durch numerische Berechnungen am Computer geplant. Zum Einsatz kam die damals übliche und auchheute noch genutzte Software NASTRAN der NASA zum Lösen partieller Differentialgleichungen. Durch ungünstige Diskretisierung der zugrunde liegenden partiellen Differentialgleichung, die die in den Betonteilen wirkenden Kräfte beschreiben sollte, wurden einige Bereiche mit besonders hohen Lasten zu schwach dimensioniert. Die berechneten Lasten waren nur etwa halb so hoch wie die tatsächlichen. Die Plattform versank im 200 Meter tiefen Meer und löste durch Implosionen ein schwaches Erdbeben aus.

Die numerischen Berechnungen wurden nicht auf plausibilität geprüft und nicht mit klassischen Berechnungsverfahren für Betontragwerke verglichen. Die Berechnungssoftware trifft hier übrigens keine Schuld. Es handelt sich um einen Fehler der Bediener, die ungeeignete Parameter gewählt haben. Für mehr Informationen zu den Ursachen des Untergangs siehe The sinking of the Sleipner A offshore platform und Die Ursache für den Totalverlust der Betonplattform Sleipner A und Verweise darin.

References
  1. Bürger, S., & Flemming, J. (2014). Deautoconvolution: A new decomposition approach versus TIGRA and local regularization. Journal of Inverse and Ill-Posed Problems, 23(3), 231–243. 10.1515/jiip-2013-0082