Chancen und Herausforderungen: Aktieninvestments mit Künstlicher Intelligenz
Künstliche Intelligenz (KI) kann die Investmentwelt grundlegend verändern. Nach den jüngsten Innovationen bei KI sind mit ihrer Hilfe höhere Investmenterträge möglich, und wir gehen davon aus, dass sich dieser Trend fortsetzt.
KI und grosse Sprachmodelle (LLMs) wie ChatGPT revolutionieren die Finanzwelt. Die enormen Fortschritte in den Bereichen KI und Maschinenlernen (ML) in den letzten Jahren könnten ein neues Zeitalter einläuten.
Zurzeit beruhen die ML-Techniken unserer Ansicht nach auf etablierten Methoden zur Gewinnung von Informationen aus Daten.
Optimierung
In der Finanzwelt steht Optimierung dafür, die beste Lösung für ein bestimmtes Problem zu finden und zugleich einige Bedingungen zu erfüllen. Bei quantitativen Aktienstrategien wird Optimierung bei der Portfoliokonstruktion genutzt. Ziel ist eine optimale Struktur, also möglichst viel erwarteter Ertrag bei möglichst wenig Risiko.
Ein Beispiel für ein einfaches Optimierungsproblem: Welches ist die optimale Menge an Pizza, Kuchen und Getränken für eine Party? Die Frage lässt sich durch Nachdenken lösen, auf der Grundlage von Erfahrungen und mit ein paar Berechnungen, die auf einen Bierdeckel passen.
Aber in der Finanzwelt ist das anders. Wer ein Portfolio aus 100 S&P-500-Aktien zusammenstellen will, hat nahezu unendliche Kombinationsmöglichkeiten.
Mit einem Optimierer lässt sich die optimale Risiko-Ertrags-Spanne finden, indem man die schier unendliche Zahl der möglichen Portfolios so lange durchsuchen lässt, bis er die Aktienkombination gefunden hat, die das beste Ergebnis erzielen dürfte.
Aber das ist alte Technologie. Um das optimale Portfolio zu finden, nutzt der Optimierer die Lagrange-Multiplikator-Methode. Sie wurde 1806 von dem italienisch-französischen Mathematiker Joseph-Louis Lagrange veröffentlicht. Bei dieser Technik wird eine neue Variable (der Lagrange-Multiplikator) für jede Nebenbedingung des Optimierungsproblems eingeführt und eine neue Funktion, die sogenannte Lagrange-Funktion, gebildet.
Durch die partiellen Ableitungen der Lagrange-Funktion erhält der Optimierer Hinweise darauf, auf welchem Weg die Lösung zu suchen ist, ohne jede der fast unendlich vielen möglichen Kombinationen prüfen zu müssen. Diese Methode spielt eine entscheidende Rolle bei der Verbesserung der Modellleistung beim ML, von der Auswahl und der Abstimmung der Merkmale bis hin zur Minimierung der Verlustfunktion.
Neuronale Netze
Neuronale Netze wurden erstmals 1940 diskutiert, inspiriert von den neuronalen Netzen im menschlichen Gehirn. Aber erst die Erfindung der Backpropagation (Rückpropagierung) 1986, also der Technik, mit der neuronale Netze „lernen“, war die Grundlage ihrer Verbreitung.
Backpropagation ist ein einfaches Konzept: Die Gewichtung des Netzes auf der Grundlage des „Fehlers“, also der Differenz zwischen der vom Netz angebotenen Lösung und dem gewünschten Ergebnis, wird angepasst. Im Grunde genommen sagt die Backpropagation dem Netz, wie weit es danebengelegen hat. Daraus lernt es.
Mittels Backpropagation mit einem ausreichend grossen Trainingsdatensatz können neuronale Netze für zahlreiche unterschiedliche Aufgaben eingesetzt werden – von der Erkennung von Katzenbildern bis hin zu autonomen Fahrzeugen.
Was steckt hinter der KI-Revolution?
In den letzten Jahren sind Leistungsfähigkeit und Verbreitung von KI-Tools in vielen Branchen enorm gestiegen.
Der erhebliche Anstieg der Rechenleistung hat die Verarbeitung riesiger Mengen von Trainingsdaten ermöglicht – mit immer komplexeren KI-Modellen. Der Chiphersteller NVIDIA hat davon mit Abstand am meisten profitiert. Sein Aktienkurs ist in den letzten fünf Jahren um über 2.000 % gestiegen.1 Die Grafikprozessoren (GPUs) des Unternehmens, die ursprünglich für Videospiele entwickelt wurden, erwiesen sich als besonders geeignet für das Training von KI-Modellen. Es gibt zwar noch andere Akteure, aber NVIDIA ist der grösste.
Heute bieten alle grossen Technologiekonzerne Cloud-Services für Maschinenlernen, sodass Nutzer leistungsfähige Computer ausleihen können, um ihre Modelle zu trainieren. Dadurch sind die Kosten erheblich gesunken, und der Zugang hat sich verbessert.
- R29vZ2xlIEZpbmFuY2UsIFN0YW5kIDEzLiBKYW51YXIgMjAyNS4g
Mehr und bessere Daten
Dank der technologischen Fortschritte bei Datensammlung, -speicherung und -verarbeitung konnten Unternehmen grosse Datenmengen erheben und analysieren, um wertvolle Erkenntnisse zu gewinnen und Muster auszumachen, die für das Training von KI-Modellen genutzt werden können. Vor allem für die Entwicklung von KI-Anwendungen waren gelabelte Datensätze von hoher Qualität notwendig.
Grosse Sprachmodelle wie generative vortrainierte Transformer (GPTs) greifen in der Regel auf mehrere öffentlich verfügbare Textquellen wie Bücher, Artikel und Websites zu. Anhand dieser Quellen lernt das Modell vielfältige Sprachmuster, Themen und Schreibstile kennen und entwickelt so ein umfassendes Verständnis von Sprache und Kontext.
KI für alle
Die Verbreitung von KI-Tools in den letzten Jahren hat den Zugang erheblich verbessert. Zudem sind zahlreiche neue und sehr unterschiedliche Software und Plattformen entstanden, die das Testen und die Weiterentwicklung von KI-Modellen vereinfachen sollen.
Open-Source-Plattformen wie TensorFlow und PyTorch bieten Entwicklern leistungsfähige und sehr gut zugängliche Tools für den Aufbau und das Training von ML-Modellen. Diese Frameworks bieten Oberflächen, die die enorme Komplexität der Implementierung von KI-Algorithmen weitgehend vergessen lassen, sodass Entwickler leichter mit Maschinenlernen experimentieren und die entsprechenden Techniken anwenden können.
Die Erfindung der Transformer-Architektur
Die Transformer-Architektur war eine Revolution und massgeblich für die Weiterentwicklung von KI. Sie schloss die Lücke zwischen neuronalen Netzen und LLMs und begründete damit den Erfolg von ChatGPT.
Ein Transformer ist im Wesentlichen eine bestimmte Art eines neuronalen Netzes, die erstmals 2017 von Google in einem Papier mit dem Titel „Attention is All You Need“ beschrieben wurde. Das Besondere an einem Transformer ist sein Aufmerksamkeitsmechanismus, mit dem sich das Modell quasi selbst beobachtet und die einzelnen Elemente eines Satzes nach ihrer Bedeutung gewichtet, bevor es eine Aussage trifft. Durch diesen Aufmerksamkeitsmechanismus kann das Modell weitreichende Abhängigkeiten erkennen und jedes Wort im Kontext des gesamten Satzes erfassen.
Transformer haben LLMs revolutioniert. Durch die Nutzung des Aufmerksamkeitsmechanismus konnten Transformer komplexe Muster und Beziehungen innerhalb der Sprache erkennen, was die Welt des Natural Language Processing (NLP) grundlegend verändert hat.
Die Zukunft von KI und ihre Bedeutung für Aktienportfolios
Was aber bedeutet das alles für Aktienportfoliomanager? Wird KI den menschlichen Manager ablösen? Die kurze Antwort lautet nein.
ChatGPT und andere gängige KI-Modelle wurden anhand sehr sauberer Daten entwickelt, auf der Grundlage bester Onlinequellen ohne oder nur mit sehr wenig „Noise“, also anhand von Texten mit einer korrekten Rechtschreibung und Grammatik, korrekten Satzstrukturen und einem sehr guten Wortschatz. Damit können die Modelle sehr gute Ergebnisse liefern.
Bei Aktiendaten ist das leider anders. Der Tagesertrag einer Aktie hängt von sehr unterschiedlichen, zum Teil sehr unklaren Faktoren ab. 1973 veröffentlichte der US-Volkswirt Burton Malkiel sein berühmtes Buch „A Random Walk Down Wall Street“, in dem er die Entwicklung einer Aktie als extrem schwer zu prognostizieren und schwer zu modellieren beschrieb.
In der Praxis bedeutet dies, dass man ein ML-Modell nicht einfach mit Aktiendaten füttern kann. Zuvor müssen die Daten stark bereinigt werden, und auch die Modellierungstechniken müssen genau bedacht werden, damit sie der Unvorhersehbarkeit der Daten gerecht werden.
Kontinuierliche Weiterentwicklung
Die Märkte werden von zahlreichen unterschiedlichen Faktoren bestimmt: Geld- und Fiskalpolitik, technologische Fortschritte, aufsichtsrechtliche Entwicklungen und Veränderung der Anlegerstimmung. Hinzu kommen globale Ereignisse, weltpolitische Verschiebungen und Demografietrends, die ebenfalls Einfluss auf eine Finanzwelt haben, die sich ständig verändert. Als quantitative Investoren wissen wir, dass wir aus der Geschichte viel über die Zukunft lernen können, aber wir wissen auch, dass die Zukunft niemals genauso aussehen wird wie die Vergangenheit.
Bei der Nutzung von KI ist das in der Regel ganz anders. Beispielsweise ist die Sprache in einem LLM üblicherweise recht unveränderlich. Grammatik, Rechtschreibung und Satzstrukturen verändern sich nur extrem langsam. Hier sprechen wir von Jahrzehnten. Diese „Stationarität“ bedeutet, dass noch heute Daten aus der Vergangenheit genutzt werden, und dass Modelle, die mit grösseren Datenmengen trainiert wurden, bessere Ergebnisse liefern.
Es braucht mehr Daten
BookCorpus2 , einer der Datensätze, mit denen die erste Version von ChatGPT (Version 1) trainiert wurde, enthält 11.038 Bücher (etwa 74 Millionen Sätze) von unveröffentlichten Autoren.3 Wikipedia, das ebenfalls zu Trainingszwecken genutzt wurde, enthält nach unserer Schätzung etwa 300 Millionen Sätze.4
Ein Datensatz internationaler Aktien (Monatsdaten der letzten 30 Jahre) enthält hingegen nur 3,6 Millionen Beobachtungen. Das ist viel, aber doch erheblich weniger als die Datenmengen, die LLM-Modellen zur Verfügung stehen. Die nächste Herausforderung ist, dass die Aktien-Datenmenge nur langsam wachsen wird, weil neue Daten erst im Laufe der Zeit hinzukommen, wenn weitere Erträge beobachtet und gemessen werden.
- NjArIEZhY3RzIGFib3V0IGNoYXRncHQgWW91IG5lZWQgdG8ga25vdyBpbiAyMDI1
- Qm9va0NvcnB1cyBEYXRhc2V0IHwgUGFwZXJzIFdpdGggQ29kZQ==
- U2Now6R0enVuZyBhdWYgR3J1bmRsYWdlIHZvbiBXaWtpcGVkaWEtRGF0ZW4sIFF1ZWxsZTombmJzcDtXaWtpcGVkaWE6U2l6ZSBvZiBXaWtpcGVkaWEgLSBXaWtpcGVkaWE=
Ein schwieriges Umfeld, aber es gibt Chancen
Diese drei Faktoren – fehlende Vergangenheitsdaten, das ungünstige Verhältnis zwischen relevanten und nicht relevanten Informationen und die Dynamik – ergeben zusammen das grösste Risiko einer Nutzung von ML im Aktienmanagement: Überanpassung.
Überanpassung entsteht, wenn sich ein Modell zu stark an Trainingsdaten anpasst und am Ende den „Noise“ und die „Ausreisser“ in Datensätzen aus der Vergangenheit abspeichert, statt die Beziehungen zu erfassen, die auch in Zukunft gelten dürften. Dann entsteht ein Modell, das bei Vergangenheitsdaten sehr leistungsfähig ist, aber mit aktuellen Daten eine schlechte Performance erzielt.
Trotz dieser Herausforderungen schätzen wir das Potenzial von KI und Maschinenlernen, managen aber die damit verbundenen Risiken sehr sorgfältig. Die folgenden beiden Modelle sind Beispiele dafür, wie wir diese Techniken in unserem Investmentprozess bei AXA IM nutzen.
Erkennen von Extremrisiken in neuronalen Netzen
Wir haben ein neuronales Netz entwickelt, das Extremrisiken erkennen soll. Es schätzt die Wahrscheinlichkeit, mit der eine Aktie im nächsten Monat stark einbricht oder stark steigt. Das erstmals im Jahr 2017 eingesetzte Modell nutzt sorgfältig ausgewählte Eigenschaften, die jede für sich kurzfristige Anstiege der Volatilität prognostizieren können. Durch ihre Kombination in dem neuronalen Netz konnten wir die nicht linearen Beziehungen zwischen den Signalen nutzen, sodass das Ergebnis besser war als die Summe seiner Teile. Dieses Modell erkannte das hohe Risiko zweier US-Regionalbanken, die im 1. Quartal 2023 zusammenbrachen.
Der Nachteil neuronaler Netze ist, dass sie eine „Blackbox“ sind, man kann sie also nur schwer an irgendeiner Stelle gezielt modifizieren. Für uns als systematische, fundamental orientierte Investoren ist es wichtig, dass wir die Änderungen der Daten, auf deren Grundlage ein Modell eine Handelsempfehlung gibt, genau kennen. Deshalb integrieren wir das neuronale Netz in eine „Whitebox“. Wir stellen die Ergebnisse des Modells den Input-Variablen, also den von uns ausgewählten Eigenschaften, gegenüber. Mit dieser linearen Regression können wir berechnen, welche Variablen die Handelsempfehlung des Modells am meisten beeinflussen.
NLP-Modell als Stimmungsindikator
Als systematische Investoren, die gut diversifizierte Portfolios anstreben, sind wir darauf angewiesen, aus Daten Erkenntnisse zu gewinnen. Indem wir sicherstellen, stets die aktuellsten und korrektesten Unternehmensfundamentaldaten zu nutzen, können wir Mehrwert für unsere Kunden erzielen.
Wir nutzen NLP, um die Aussagen von CEOs und CFOs von Unternehmen zu analysieren, und berücksichtigen dies bei unserer Aktienauswahl. Wir haben ein NLP-Modell entwickelt, das erstmals 2020 zum Einsatz kam und Transkripte von mündlichen Quartalsberichten liest. Es misst die Stimmung der Geschäftsleitungsmitglieder und erkennt, wie präzise sie sich ausdrücken. Das Ergebnis fliesst in unsere Faktormodelle für Qualität und Stimmung ein.
Der nächste Schritt
In den letzten Jahren haben sich LLMs und KI erstaunlich schnell weiterentwickelt. Aber die Nutzung von KI bei der Portfoliokonstruktion birgt einige Herausforderungen. Die Komplexität von Aktiendaten, die Dynamik des Marktes und das Risiko einer Überanpassung sind klare Hindernisse.
Aus unserer Sicht kann der Einsatz dieser Techniken ohne wirksame Sicherheitsvorkehrungen gefährlich sein. Aber unsere Erfahrung mit Aktienanlagen und unsere Bereitschaft, neue Technologien in Betracht zu ziehen, hat dazu geführt, dass wir die neuen Verfahren in die nächste Generation unserer Modelle integrieren, damit wir KI stets optimal nutzen – zum Vorteil unserer Kunden.
Wir meinen, dass KI und ML quantitative Aktienstrategien nicht grundlegend verändern, aber sie sind zweifellos ein sehr wichtiger Schritt. Manager, die sich nicht anpassen, werden den Anschluss verlieren. Wir entwickeln uns ständig weiter und begrüssen neue Technologien – schon seit unserer Gründung vor 30 Jahren. Deshalb sind wir überzeugt, auch die aktuellen Innovationen im besten Interesse unserer Kunden zu nutzen.
Hinweise auf Unternehmen dienen nur zur Illustration und dürfen nicht als Anlageempfehlungen verstanden werden.
Rechtliche Hinweise