Vielfältige Fälle und Fallen für KI in der Kapitalanlage
Im Interview: Daniel Ung
Fälle und Fallen für KI in der Kapitalanlage
Der Leiter quantitative Forschung und Analyse beim ETF-Zweig von State Street Global Advisors zur Nutzung von künstlicher Intelligenz
Künstliche Intelligenz (KI) kommt zunehmend im Portfoliomanagement und bei der Risikoallokation zum Einsatz. Daniel Ung, Leiter der quantitativen Forschung und Analyse, ETF Model Portfolio Solutions, beim ETF-Zweig von State Street Global Advisors, zeigt Potenziale und Grenzen auf – und wagt einen Blick in die Zukunft bei der Nutzung sogenannter alternativer Daten.
Herr Ung, wie kann künstliche Intelligenz (KI) im Portfolio- und Risikomanagement zum Einsatz kommen?
Derzeit wird mehr über generative KI gesprochen. Es handelt sich aber um eine breitere Kategorie von Techniken, über die wir sprechen. Einige unserer Kunden erforschen den Einsatz von maschinellem Lernen zur Unterstützung ihres Asset-Allokations-Prozesses. Das maschinelle Lernen, das einen großen Teil der KI ausmacht, kann in überwachtes und unbeaufsichtigtes Lernen unterteilt werden. Darüber hinaus umfasst das maschinelle Lernen auch Deep Learning und Reinforcement Learning.
Was ist damit gemeint?
Im Kontext des maschinellen Lernens wird beim überwachten Lernen ein Modell auf einem Datensatz trainiert, das heißt, jedes Trainingsbeispiel wird mit der richtigen Ausgabe gepaart. Unüberwachtes Lernen hingegen zielt darauf ab, versteckte Muster in den Eingabedaten zu finden, und es gibt keine korrekte Ausgabe, die mit jedem Trainingsbeispiel verbunden ist. Beim Deep Learning wird ein mehrschichtiges, tiefes neuronales Netz verwendet, um verschiedene Datentypen zu analysieren und aus riesigen Datenmengen mit einer Komplexität zu lernen, die der Mensch nicht erreichen kann. Beim Reinforcement Learning schließlich werden Modelle darauf trainiert, eine Reihe von Entscheidungen zu treffen, indem sie für die von ihnen durchgeführten Aktionen belohnt oder bestraft werden und so lernen, was zu tun ist, um ein Ziel zu erreichen.
Worin liegt der Unterschied genau?
Der Unterschied in der Technik und wann welche Technik eingesetzt werden sollte, hängt weitgehend von der jeweiligen Aufgabe ab. Es ist zum Beispiel möglich, einen unüberwachten Algorithmus zu verwenden, um das Risikoprofil von Multi-Asset-Investitionen zu gruppieren, um zu erkennen, ob bestimmte Arten von Vermögenswerten ein ähnliches Risikoprofil aufweisen wie andere. Im Anlagebereich ist dies sehr nützlich, um Muster auf der Grundlage von Daten zu erkennen. Ein weiterer Anwendungsfall des maschinellen Lernens ist die Verbesserung von Vorhersagen. So werden beispielsweise neuronale Netze – und insbesondere das Modell des Langzeit-Kurzzeitgedächtnisses (LSTM) – häufig eingesetzt, um Beziehungen zu untersuchen, die in Zeitreihen nicht linear sind. Damit sollen die Modellierungstechniken der Vergangenheit verbessert werden, die dazu tendierten, weitgehend lineare Beziehungen oder eine Kombination linearer Beziehungen zu betrachten. Die Fähigkeit, nicht-lineare Beziehungen genau zu modellieren, ist einer der Gründe, warum sich unsere Kunden zunehmend für den Einsatz von künstlicher Intelligenz bei Investitionen interessieren.
Wie sehen die Anwendungsfälle aus?
Neben den genannten Beispielen gibt es noch einen weiteren Anwendungsfall für künstliche Intelligenz bei Investitionen, nämlich die Untersuchung des Tonfalls von geschriebenen Texten, eine sogenannte Stimmungsanalyse mit Hilfe von Techniken der natürlichen Sprachverarbeitung (NLP). Nehmen wir als Beispiel die Sitzungsnotizen der Federal Reserve, so kann der allgemeine Tonfall einen Hinweis auf die bevorstehende politische Entscheidung der Zentralbank geben, und die Anleger können ihre taktischen Positionen entsprechend anpassen. Ursprünglich basierten die Methoden zur Stimmungsanalyse auf der lexikalischen Analyse, bei der Wörter in einer statischen Liste als positiv oder negativ eingestuft wurden und die Gesamtstimmung auf der Grundlage dieser Klassifizierungen ermittelt wurde. Dieser Ansatz war einfach, ließ aber oft die Nuancen der Sprache, wie Kontext oder Ironie, außer Acht.
Und das hat sich nun verbessert?
Mit der Weiterentwicklung der NLP-Techniken wurde es immer üblicher, statistische Methoden zu verwenden, um die Stimmung aus großen Datensätzen mit gelabelten Beispielen zu lernen. Doch diese Modelle konnten zwar komplexere Sprachmuster erfassen, hatten aber immer noch Probleme mit Kontexten und sprachlichen Feinheiten. In jüngerer Zeit bedeutete die Einführung von Deep Learning und neuronalen Netzen einen bedeutenden Fortschritt bei der Analyse von geschriebenen Texten. Diese Modelle sind in der Lage, Textsequenzen zu verarbeiten und dabei weitreichende Vertiefungen und Nuancen zu erfassen, was das Verständnis des Kontextes erheblich verbessert. Sie analysieren die Stimmung in Bezug auf den umgebenden Text und ermöglichen so eine genauere Interpretation und Stimmung. Allen oben genannten Analyseansätzen ist gemein, dass der Text vor der Analyse des Gefühls vorverarbeitet werden muss. Mit anderen Worten, er muss in kleinere Einheiten zerlegt, also tokenisiert, und die Wörter müssen auf ihre Grundform vereinfacht werden, entweder durch Lemmatisierung oder Stemming. Also beispielsweise wäre für das Wort „dangerous“ das Grundwort „danger“. Nach diesen Schritten wird der Text in ein numerisches Format umgewandelt, das für die Modelle des maschinellen Lernens leichter zu verarbeiten ist, und dann in ein Stimmungsanalysemodell eingespeist, um es zu analysieren und Vorhersagen zu treffen.
Wo sehen Sie die Grenzen, bis zu welchem Ausmaß die Maschine den Inhalt verarbeiten kann?
Ein häufiges Problem beim maschinellen Lernen ist die statistische Überanpassung, auch Overfitting genannt. Dies ist der Fall, wenn ein Modell die Details und das Rauschen in den Trainingsdaten so weit lernt, dass es bei diesen Daten gut abschneidet, aber bei neuen, unbekannten Daten schlecht. Das bedeutet im Wesentlichen, dass sich das Modell die Trainingsdaten „gemerkt“ hat, aber nicht gelernt hat, daraus zu verallgemeinern, was seine Vorhersagefähigkeit einschränkt. Daher ist es wichtig, dass wir in der Lage sind, ein maschinelles Lernmodell zu verallgemeinern. Andernfalls werden die aus dem Modell abgeleiteten Vorhersagen keine nützlichen Analysen oder Ergebnisse liefern.
Wie lässt sich das bei der Portfolio-Allokation einsetzen?
Zuvor habe ich ein Beispiel dafür gegeben, wie nützliche Informationen aus den offiziellen Texten der Zentralbanken gewonnen werden können, um zu versuchen, ihre bevorstehenden Maßnahmen durch Stimmungsanalyse zu verstehen. Ein weiterer Anwendungsfall des maschinellen Lernens ist die Frage, wie eine bessere Diversifizierung innerhalb eines Portfolios erreicht werden kann. Einige Anleger sind der Meinung, dass eine Diversifizierung am besten mit möglichst vielen Bausteinen (Fonds) erreicht werden kann, also etwa mit US-Aktien, festverzinslichen Wertpapieren und so weiter. Traditionell ist man auch der Meinung, dass ein ausgewogenes Portfolio erreicht werden kann, indem man unkorrelierte Vermögenswerte wie Aktien und festverzinsliche Wertpapiere in einem 50:50-Portfolio gleich gewichtet.
Aber dem ist nicht so?
Unter Risikogesichtspunkten ist ein 50:50-Portfolio nicht ausgewogen, da es ein wesentlich höheres Aktienrisiko als ein Rentenrisiko aufweist, obwohl beide Anlageklassen gleich gewichtet sind. Darüber hinaus zeigt die Forschung, dass Anlagewerte häufig eine hierarchische Struktur aufweisen, was bedeutet, dass ihre Preisbewegungen und Renditen oft ähnliche Muster aufweisen, die sich in Clustern oder Hierarchien zusammenfassen lassen. Diese hierarchische Struktur spiegelt zugrundeliegende Korrelationen und gemeinsame Wirtschafts- oder Marktfaktoren wider, die diese Vermögenswerte beeinflussen. Eine Möglichkeit, sich diese Beobachtung zunutze zu machen und die Diversifizierung zu verbessern, besteht in der Anwendung der hierarchischen Risikoparität in Portfolios. Vereinfacht ausgedrückt werden verschiedene Vermögenswerte in Gruppen eingeteilt, je nachdem, wie ähnlich sie einander sind, und das Risiko im Portfolio wird auf verschiedene Gruppen verteilt, um eine gute Portfoliodiversifizierung zu erreichen.
Welche anderen Herausforderungen sehen Sie bei der Nutzung von maschinellem Lernen für die Risikoallokation?
Modelle der künstlichen Intelligenz und des maschinellen Lernens können mit unvorhergesehenen und überraschenden Ereignissen Schwierigkeiten haben, weil diese Systeme aus historischen Daten lernen. Wenn ein Muster in den Daten, die zum Trainieren des Modells verwendet wurden, nicht beobachtet wurde, erkennt das System es möglicherweise nicht oder weiß nicht, wie es angemessen reagieren soll. Diese Einschränkung macht sich besonders in sich schnell verändernden Umgebungen oder in Situationen wie Covid-19 bemerkbar, als die Modelle einiger unserer Kunden nicht richtig funktionierten. Eine weitere Einschränkung der KI ist ihre Abhängigkeit von der Qualität und der Menge der Daten, auf denen sie trainiert werden. Diese Systeme können Verzerrungen oder Ungenauigkeiten entwickeln, wenn die Daten nicht repräsentativ, vielfältig oder groß genug sind. Dies kann zu verzerrten oder ungerechten Ergebnissen führen. Systeme der künstlichen Intelligenz und des maschinellen Lernens sind in der Tat nur so gut wie die Daten, aus denen sie lernen.
Kann generative KI hier mehr leisten?
Zunächst ist es wichtig zu definieren, was generative KI ist. Sie ist ein Zweig der künstlichen Intelligenz, der sich auf die Erstellung neuer Inhalte konzentriert, von Texten und Bildern bis hin zu Daten und Codes, basierend auf dem Lernen aus umfangreichen Datensätzen. Bei der Kapitalanlage kann sie für Szenario-Analysen eingesetzt werden, indem sie verschiedene Wirtschafts- oder Finanzmarktsimulationen unter verschiedenen Bedingungen generiert und den Anlegern hilft, die möglichen Ergebnisse zu verstehen und fundierte Entscheidungen zu treffen. Generative KI, insbesondere durch Generative Adversarial Networks (GANs), kann die Szenario-Analyse für Investitionen durch die Erstellung realistischer Finanzmarktsimulationen erheblich verbessern. GANs arbeiten, indem sie zwei neuronale Netze gegeneinander antreten lassen: Eines erzeugt synthetische Daten, die realen Marktbedingungen ähneln, während das andere versucht, zwischen den realen und den synthetischen Daten zu unterscheiden. Mit der Zeit wird der Generator immer geschickter darin, äußerst realistische Szenarien zu erstellen. Diese Fähigkeit ermöglicht es den Anlegern, Anlagestrategien zu testen oder das Risikomanagement unter einer Vielzahl von Marktszenarien zu bewerten, die zwar in der Vergangenheit nicht beobachtet wurden, aber in der Zukunft auftreten könnten.
Welche anderen Möglichkeiten sehen Sie in der Zukunft noch?
Ich denke, die Menschen werden zunehmend andere Formen alternativer Daten einsetzen. Einige Algo-Trading-Häuser nutzen bereits Satellitenbilder, um die von Fabriken emittierten Kohlenstoffmengen zu ermitteln und diese Zahlen mit den Angaben der Unternehmen abzugleichen. Satellitenbilder werden auch in anderen Bereichen eingesetzt, etwa zur Verfolgung des weltweiten Frachtverkehrs und zur Analyse der globalen Handelsströme. Diese Art von Daten kann von unschätzbarem Wert sein, wenn es darum geht, abzuschätzen, wie viel Gewinn Unternehmen in bestimmten Branchen wahrscheinlich machen werden und wie sich diese Aktien auf dem Markt verhalten könnten.
Das Interview führte Franz Công Bùi.
Daniel Ung ist Leiter der quantitativen Forschung und Analyse, ETF Model Portfolio Solutions bei SPDR EMEA & APAC, dem ETF-Zweig von State Street Global Advisors. In dieser Funktion ist er verantwortlich für die Bereitstellung von Research zur Asset Allocation mit ETFs sowie für die Analyse, wie ETFs in Anlageportfolios implementiert werden können.