Options
Universal Approximation on Path Spaces and Applications in Finance
Type
doctoral thesis
Date Issued
2022-09-19
Author(s)
Abstract
This dissertation studies universal approximation between infinite dimensional spaces, which is of particular interest for applications in Finance. In the finite dimensional case, an interesting class of functions possessing the universal approximation property was discovered eighty years ago: neural networks, which, as concatenation of affine and non-linear functions, are rich enough to approximate every continuous function on a compact set of the Euclidean space arbitrarily well. However, this class of functions only gained wider attention after the turn of the millennium by showing novel and promising applications in the fields of image and speech recognition as well as computer games. Today, neural networks are well known and an integral part of machine learning, a branch of artificial intelligence, used to solve high dimensional and non-linear approximation problems, which were previously inaccessible with conventional methods. While the universal approximation property of neural networks between finite dimensional spaces was mathematically proven forty years ago, the generalization to infinite dimensional spaces is not straight-forward. Of course, one could argue that everything in our world is finite, such as the number of atoms. Nevertheless, a generalization of neural networks and their approximation property to infinite dimensional spaces would be desirable to solve problems in functional data analysis, dynamical systems and partial differential equations. This would allow to learn path-dependent functionals, such as the payoff of an Asian option, or more general operators, for example the solution operator of a partial differential equation. In a first application, the universal approximation result between infinite dimensional spaces is used in the framework of Stochastic Portfolio Theory (SPT) to learn an optimal path-dependent portfolio. SPT is a relatively new area of mathematical finance, which attempts to describe equity markets with observable characteristics under realistic assumptions. In this context, a generating function determines the weights of a portfolio and its overall investment behaviour, so that an optimal portfolio can be learned by approximating the optimal generating function. Furthermore, this approach of portfolio generation has been extended to the path-dependent setting, where the generated portfolio can also depend on the past market trajectory. Since the generating functional now depends on a continuous path, an infinite dimensional object, we use a functional neural network to approximate the optimal path-dependent functional. In a second application, we use the universal approximation result with infinite dimensional range to approximate the pricing operator of financial derivatives with non-linear dynamics, which corresponds to the solution operator of certain Hamilton-Jacobi-Bellman equations. We use this approach to learn American option prices in a complete market as well as European option prices in an incomplete market. The method is model-free in the sense that it can be applied to any financial market model and the entire value function of the financial derivative of interest can be learned from other known option prices. In summary, we solve problems in Finance by using machine learning techniques, where we prove the applicability of these methods mathematically through concepts of functional analysis.
Abstract (De)
Diese Dissertation befasst sich mit universeller Approximation zwischen unendlich dimensionalen Räumen, die für Anwendungen in den Finanzwissenschaften von besonderem Interesse ist. Im endlich dimensionalen Fall wurde eine interessante Klasse von Funktionen mit der universellen Approximationseigenschaft vor achtzig Jahren entdeckt: Es war die Geburtsstunde neuronaler Netzwerke, die als Verkettung affner und nichtlinearer Funktionen genügend reichhaltig sind, um jede stetige Funktion auf einer kompakten Menge des Euklidischen Raumes beliebig gut zu approximieren. Grössere Aufmerksamkeit erlangte diese Funktionsklasse erst nach der Jahrtausendwende durch neuartige und vielversprechende Anwendungen in der Bild- und Spracherkennung sowie der Computerspiele. Heute sind neuronale Netzwerke ein fester Bestandteil des maschinellen Lernens, einem Zweig der künstlichen Intelligenz, welche zur Lösung hochdimensionaler, nichtlinearer Approximationsprobleme eingesetzt werden, die mit bisherigen Methoden unzugänglich waren.Während die universelle Approximationseigenschaft von neuronalen Netzwerke zwischen endlich dimensionalen Räumen vor vierzig Jahren mathematisch bewiesen wurde, folgt die Verallgemeinerung auf unendlich dimensionale Räume nicht direkt. Natürlich könnte man argumentieren, dass in unserer Welt alles endlich ist, wie bspw. die Anzahl der Atome. Dennoch wäre eine Verallgemeinerung von neuronalen Netzwerken und ihrer Approximationseigenschaft auf unendlich dimensionale Räume wünschenswert, um Probleme in der funktionalen Datenanalyse, dynamischen Systeme und partiellen Di?erentialgleichungen zu lösen. Dies würde erlauben, pfadabhängige Funktionale, wie die Auszahlung einer asiatischen Option, oder allgemeinere Operatoren, bspw. den Lösungsoperator einer partiellen Di?erentialgleichung, zu lernen.In einer ersten Anwendung wird die universelle Approximationsresultat zwischen unendlich dimensionalen Räumen im Rahmen der Stochastischen Portfoliotheorie (SPT) benutzt, um ein optimales pfadabhängiges Portfolio zu lernen. SPT ist ein relativ neues Gebiet der Finanzmathematik, das versucht, Aktienmärkte mit beobachtbaren Eigenschaften unter realistischen Annahmen zu beschreiben. In diesem Zusammenhang bestimmt eine generierende Funktion die Gewichte eines Portfolios und sein gesamtes Investitionsverhalten, so dass ein optimales Portfolio durch Approximation der optimalen generierenden Funktion gelernt werden kann. Darüber hinaus wurde dieser Ansatz der Portfolio-Generierung ins pfadabhängige Setting erweitert, so dass das generierte Portfolio auch von der Vergangenheit des Markts abhängen kann. Da das generierende Funktional nun von einem unendlich dimensionalen Pfad abhängt, verwenden wir ein funktionales neuronales Netzwerk, um das optimale pfadabhängige Funktional zu approximieren.In einer zweiten Anwendung benutzen wir das universelle Approximationsresultat mit unendlich dimensionalen Wertebereich, um den Preisbildungsoperator von Finanzderivaten mit nichtlinearen Dynamiken zu approximieren, der dem Lösungsoperator bestimmter Hamilton-Jacobi-Bellman-Gleichungen entspricht. Wir verwenden diesen Ansatz, um amerikanische Optionspreise in einem vollständigen Markt sowie europäische Optionspreise in einem unvollständigen Markt zu lernen. Die Methode ist modellfrei in dem Sinne, dass sie für ein beliebiges Finanzmarktmodell angewendet werden kann, und die gesamte Wertefunktion des interessierenden Finanzderivat aus anderen Optionspreisen, die im Markt bekannt sind, gelernt werden kann.Zusammenfassend lösen wir Probleme in den Finanzwissenschaften durch maschinelles Lernen, wobei wir diese Methoden mathematisch durch Konzepte der Funktionalanalysis beweisen.
Language
English
Keywords
Maschinelles Lernen
Approximationstheorie
Gewichtete Approximation
Funktional
Portfolio Selection
Preisbildung
EDIS-5248
path spaces
Universelle Approximation
Pfadräume
Stone-Weierstrass
Nachbin
Universal approximation
HSG Classification
not classified
HSG Profile Area
None
Publisher
Universität St. Gallen
Publisher place
St.Gallen
Official URL
Subject(s)
Division(s)
Eprints ID
267368
File(s)
Loading...
Name
Dis5248.pdf
Size
53.85 MB
Format
Adobe PDF
Checksum (MD5)
574cb7525ea40f8ed9b229b26ea5aaab