Maschinen übernehmen das Ruder
Portfoliomanager treibt die Angst um, durch wissbegierige Software und Maschinen ersetzt zu werden. Und das mit Recht. Unzählige Faktoren gleichzeitig zu beobachten und darin Zusammenhänge zu erkennen ist eher das Steckenpferd von Hochleistungscomputern.
Wir schreiben das Jahr 1968. Regisseur und Drehbuchautor Stanley Kubrick hat mit dem Science-Fiction-Klassiker „2001: Odyssee im Weltraum“ gerade ein Thema verfilmt, das auch knapp 50 Jahre später für kalte Schauer auf dem Rücken gut ist: Was wäre, wenn künstliche Intelligenz sich verselbstständigt?
Der Hollywoodstreifen handelt vom Supercomputer Hal 9.000 des Raumschiffs Discovery. Der von Menschenhand geschaffene Hal zeigt während der Reise zum Planeten Jupiter eine Art neurotisches Verhalten. Er scheint sich in der Fehleranalyse des Antennenmoduls AE-35 zu irren. Nachdem er herausfindet, dass die Besatzung ihn abschalten will, falls sich die Irrtümlichkeit seiner Fehleranalyse bestätigen sollte, versucht er, die Crew auszuschalten, um seine Mission zum Jupiter fortführen zu können – „unbeirrbar und allein“. Dazu tötet er Besatzungsmitglied Frank Poole während dessen Weltraumausstiegs und auch den Rest der Mannschaft. Nur Besatzungsmitglied David Bowman überlebt. Ihm gelingt es, in den Zentralraum von Hal einzudringen und dessen Funktionsmodule zu deaktivieren.
Und damit herzlich willkommen in der Welt der künstlichen Intelligenz, die in diesen Tagen einen Entwicklungssprung wie selten zuvor verzeichnet!
Wer sich in Frankfurt am Main ein Fachbuch ausleihen möchte, der ist bei der Universitätsbibliothek Johann Christian Senckenberg an der richtigen Stelle. Wenn man allerdings mal eine gewisse Zeit lang keine Ausleihungen tätigt und in der Zwischenzeit der Nutzerausweis abläuft, landet man ganz schnell auf dem Index: Aus „Gründen der Datensparsamkeit“ muss man sich beim nächsten Ausleihewunsch erneut anmelden. Das ist bei Bibliotheken so üblich. Sie gehen bewusst mit den Daten ihrer Nutzer um.
In der Finanzwelt will man dagegen von so etwas wie Datensparsamkeit nichts wissen. Aller Orten werden sie für viel Geld von Dienstleistern zugekauft, gesammelt und auf mögliche Zusammenhänge hin abgeklopft. Je mehr Nutzerdaten, Kurszeitreihen, ökonomische Variablen und Texte in Onlineforen zusammengeklaubt werden, umso mehr Erkenntnisse verspricht sich mancher daraus für die Kapitalanlage. Protegiert wird diese Entwicklung durch den Einsatz von Hochleistungsrechnern und ausgefuchsten Algorithmen unter dem Überbegriff „Machine Learning“ oder „künstlicher Intelligenz“, einem Teilgebiet der Informatik. Darin wird versucht, eine menschenähnliche Intelligenz nachzubilden und einen Computer so zu programmieren, dass er eigenständig Probleme bearbeiten kann.
Hier treffen also zwei Sichtweisen aufeinander. Der 2017 aus der Fusion von Janus Capital und der Henderson Group hervorgegangene Asset Manager Janus Henderson Investors gehört zu jenen, die, anders als Bibliotheken, nicht gegen elektronische Datenmassen in Form von Nutzerdaten abgeneigt sind. Warum auch? Die dramatischen Fortschritte bei der Rechenleistung, die schiere Masse der verfügbaren Daten sowie ihre immer schnellere und dabei kostengünstigere Analyse machten nun die sogenannte künstliche Intelligenz zum Dreh- und Angelpunkt für einen „weiteren Paradigmenwechsel in der Technologiegeschichte“, heißt es in einem aktuellen Statement des hauseigenen Global Technology Team, unter der Überschrift: „Künstliche Intelligenz: von Science Fiction zum attraktiven Anlagethema“.
Mysterious ways
In dem Papier vertritt Janus Henderson die Meinung, dass innovative Technologien in einer globalisierten Wirtschaftswelt disruptive Wirkung entfalten und neue Märkte schaffen werden; oder anders: Der Anbieter ist offen für Neues, während viele Portfoliomanager die Sorge umtreibt, dass durch den Einsatz künstlicher Intelligenz bestimmte Aufgaben bald nur von Kollege Computer erledigt werden. Dabei ist das Auslagern bestimmter Funktionen keine Zukunftsmusik mehr – Rechnungen lesen, Schäden prüfen, Kundenanfragen bearbeiten: Schon heute werden viele wiederholbare Arbeitsschritte bei Versicherern von Computern erledigt. Doch dabei wird es nicht bleiben. In Zukunft könnte künstliche Intelligenz nach Einschätzung der deutschen Versicherungswirtschaft weitere Aufgaben übernehmen.
Und während eben noch von Datensparsamkeit die Rede war, haben Investmentgesellschaften Interesse an großen Datenmengen, um sie mit Hilfe künstlicher Intelligenz in monetären Nutzen umzuwandeln. „Dies reicht von der vergleichsweise einfachen Erkennung von Mustern, die menschlichen Reaktionen entsprechen, über maschinelles Lernen, das sich an logischen Schlussfolgerungen orientiert, bis hin zu stärker autonomen Denkprozessen“, argumentiert man in der Denkfabrik und erläutert: Möglich werde all dies durch neuronale Netze und Deep Learning – ein neuronales Netz mit mehreren Schichten – mit denen Maschinen ihre eigenen Codes schreiben (!) und sich mit deutlich weniger menschlicher Interaktion selbst optimieren könnten. Das hätte der gute, alte „Hal 9.000“ auch gern gekonnt.
Can’t stop this thing we started
Laut Janus Henderson befinden wir uns in einer Phase, in der die künstliche Intelligenz (K.I.) zunehmend für Suchalgorithmen, Übersetzungsanwendungen, Robotik, autonomes Fahren sowie für die Sprach- und Bilderkennung eingesetzt werde. Die Vorläufer dieser Entwicklung sind geradezu abenteuerlich: Forscher haben ab den 1970er Jahren das menschliche Gehirn als Vorbild genommen, das Stichwort hier sind „neuronale Netze“, sie bilden gewissermaßen den roten Faden dieser Erörterung. Mehr darüber und welche Konzepte es gibt, um mit ihrer Hilfe in Portfolien nach Mustern zu suchen, können Sie im Interview mit Dr. Jochen Papenbrock vom Fintech-Unternehmen Firamis lesen.
Das Beratungshaus Sopra Steria Consulting wiederum betrachtet die komplexe Thematik von einer übergeordneten Ebene; zum Gesamtverständnis ist das sehr hilfreich: „Lernende, sich selbst optimierende Systeme sind die Grundlage für die nächsten Entwicklungsstufen der Automatisierung“, erläutert der Consultant und weist darauf hin, dass der Einsatz von maschinellem Lernen und künstlicher Intelligenz in Unternehmen in der Breite noch am Anfang steht. Aber: „Aufgrund der jüngsten Fortschritte bei der Sprach‑ und Bilderkennung, der audiovisuellen Ein‑ und Ausgabe und bei kognitiven Analysen lassen einige Banken, Versicherungen und andere Branchen schon heute Teile ihrer Geschäfts‑ und Kundenprozesse von intelligenten Assistenzrobotern erledigen.“ Wie gesagt: In der Versicherungslandschaft regulieren Roboter bereits Schäden.
Professor Dirk Helbing, seit 2007 Professor für Computational Social Science am Department für Geistes-, Sozial- und Politikwissenschaften der ETH Zürich, hat eine distanzierte Sichtweise, die er bereits Anfang 2016 in einem Papier („Maschinelle Intelligenz – Fluch oder Segen? Es liegt an uns!“) veröffentlicht hat. Darin warnt er: „Künstliche Intelligenz kann uns in vielerlei Hinsicht eine große Hilfe sein.“ Allerdings sei bislang noch jede Technologie mit Nebenwirkungen und Gefahren verbunden gewesen. „Wenn wir nicht aufpassen, können Menschen ihr Recht auf Selbstbestimmung und Demokratie, Unternehmen die Kontrolle und Staaten ihre Souveränität verlieren.“
Anhand eines Worst-Case- und eines Best-Case-Szenarios versucht er zu zeigen, dass sich unsere Gesellschaft an einem Scheideweg befindet. Welche grundlegende Bedeutung der Einsatz künstlicher Intelligenz sonst noch haben kann, thematisiert der Vermögensverwalter Acatis Investment, der seit rund vier Jahren zu K.I. forscht, um diese für das Portfoliomanagement nutzbar zu machen: „Kennzeichnend für KI-Programme sind autodidaktisches Lernen sowie das eigenständige Erkennen von Mustern.“ Ihre Einsatzmöglichkeiten im Investmentbereich erstreckten sich unter anderem von der Unternehmensbewertung über die Vorhersage künftiger ‚Gewinneraktien‘, die Portfoliooptimierung bis hin zum Erkennen kritischer Textpassagen und die Identifizierung von ähnlichen Firmen. Mehr über die Bestrebungen von Acatis und Firmengründer Dr. Hendrik Leber erfahren Sie in der November-Ausgabe 2016 von portfolio institutionell mit dem Titelthema „Digitalisierung“.
Wer sich mit der Thematik näher auseinandersetzen will oder muss, dem sei das Fachbuch „Artificial Intelligence in Financial Markets“ ans Herz gelegt. Es ist gespickt mit Übersichten, die die Forschungsarbeiten rund um die künstliche Intelligenz auflisten. Der Leser erfährt beispielsweise, dass die K.I. bereits Anfang der 1990er Jahre intensiv erforscht wurde. Die Autoren um Dr. Christian W. Dunis, Gründer des Beratungshauses Acanto Research, werfen auch ein Schlaglicht auf die jüngsten Entwicklungen auf dem Feld des quantitativen Tradings. Sie erläutern den Aufbau neuronaler Netzwerke und stellen Ansätze vor, die sich den einzelnen Anlageklassen, Märkten und daran angrenzenden Finanzbereichen widmen, zumal sich das quantitative Investieren in der Gegenwart rapide weiterentwickeln wird.
Superunknown
Zurück zum Fachbuch „Artificial Intelligence in Financial Markets“. In insgesamt vier Sektionen erfährt man Wissenswertes über die Analyse von Zeitreihen und wie sie für die Prognose genutzt werden können. Was sich so leicht dahersagt, ist in der Praxis für viele ein Buch mit sieben Siegeln. Denn die Vorhersage finanzieller Zeitreihen wird durch eine große Zahl von Variablen beeinflusst. Nach einem Abriss über Corporate Finance einschließlich Kreditanalyse sowie einem Vergleich der „Effizienz lernender Algorithmen“ werden im Abschnitt „Portfolio Management“ Fragen rund um die Portfoliotheorie, die Asset Allocation und die Optimierung von Portfolien beleuchtet.
Den Autoren zufolge gab es bei der Portfoliooptimierung und der Wertpapierselektion im Zusammenhang mit dem Einsatz künstlicher Intelligenz bereits umfangreiche Untersuchungen. Der Haken: Aufgrund der rasanten Fortschritte bei der Entwicklung von Methoden rund um die künstliche Intelligenz ist neues Research leider sehr schnell veraltet.
Der Fachliteratur der Gegenwart zufolge umfassen auf der künstlichen Intelligenz aufbauende Methoden einerseits die bereits angeschnittenen künstlichen neuronale Netze, heuristische Optimierungsalgorithmen und hybride Techniken. Neuronale Netze werden seit geraumer Zeit in Forschungsfeldern eingesetzt, um komplexe Probleme aus der realen Welt zu modellieren. Aufgrund ihrer „adaptiven Natur“ wird ihnen nachgesagt, Problemlöser zu sein, wenn es etwa darum geht, Vorhersagen zu treffen, Entscheidungen zu fällen und Informationen zu verarbeiten. Die zentrale Herausforderung beim Einsatz künstlicher neuronaler Netze besteht darin, dass sie anhand von Vergangenheitsdaten trainiert werden – die sich womöglich in der Zukunft so nicht wiederholen. Fortschrittlicher sollen sogenannte Expert Systems sein. Sie gelten als prädestiniert dafür, Vorhersagen abzugeben. Aber auch sie sind nicht ohne Fehl und Tadel.
Expertensysteme können weder aus Erfahrungen lernen, noch können sie mit nicht-linearen Daten arbeiten. Hybride intelligente Systeme gelten daher als ideale Lösung. Sie können sowohl mit linearen als auch mit nicht-linearen Daten umgehen. Daher ist es denkbar, dass sie die Begrenzungen tradierter Konzepte überwinden. Wobei die Literatur in dieser Sphäre noch sehr überschaubar ist.
Machines R us
Groß ist dagegen der Erfahrungsschatz, den der Asset Manager Tungsten Capital unter seinem Dach vereint. Das ebenso wie unser Verlagshaus im Herzen von Frankfurt ansässige Unternehmen verwaltet rund 500 Millionen Euro, davon entfallen rund 90 Prozent auf institutionelle Gelder. Tungsten sammelt nach einem konzeptionellen Schwenk seit September 2013 in seinem Trycon-Fonds Erfahrungen mit der künstlichen Intelligenz im Anlageprozess – bis dahin basierte der Fonds auf einer überwiegend trendfolgenden Strategie. Seither dominieren Modelle der künstlichen Intelligenz das Geschehen.
Dennoch legt Firmengründer Henning von Issendorff im Interview mit portfolio institutionell großen Wert auf die Feststellung, dass sich die Mitarbeiter des Trycon-Teams des im Mai 2006 gegründeten Unternehmens bereits seit über 15 Jahren mit der Thematik befassen. Und er bittet um Trennschärfe: „Sobald Sie Excel nutzen, befinden Sie sich überspitzt gesagt schon im Quant-Bereich“, flachst von Issendorff. Sein Kollege, der Portfoliomanager Michael Günther untermauert: „Wir sehen das kritisch, auch weil das marketingseitig beliebig ausgeschlachtet wird. Der Beginn unserer Forschung und Entwicklung geht auf das Jahr 2000 zurück. Es hat lange gedauert, bis wir da waren, wo wir heute sind. Es war auch ein Stück weit Pionierarbeit. Damals gab es nur wenige Bücher zu dem Thema. Wir haben dann in vielen Jahren Forschung und Entwicklung unsere eigene Software geschrieben, die es uns ermöglicht, künstliche Intelligenz im Portfoliomanagement nutzbar zu machen.“
K.I.-Know-how liegt auch in den Händen von Portfoliomanager Pablo Hess. Er sagt: „Wir haben um das Jahr 2000 herum die Grundlage geschaffen, um nicht nur quantitativ zu arbeiten, sondern auch mit Hilfe von künstlicher Intelligenz Mehrwert für das Portfolio zu generieren.“ Dahinter stehen Modelle oder Algorithmen, die in der Lage sind, aus Daten Zusammenhänge zu erkennen und zu lernen. Bei der hauseigenen „Quantmatrix“ geht es vereinfacht gesagt darum, tausende Einflussfaktoren gleichzeitig zu bewerten und zwar inklusive ihrer gegenseitigen, auch nicht-linearen Wechselwirkungen.
„Selbstverständlich erfordert die Entwicklung solcher Modelle ein besonderes Augenmerk auf Robustheit und damit Zukunftsfähigkeit, um eine zwar komplexe, aber letztlich nutzlose Optimierung auf die Vergangenheit auszuschließen“, erläutert Pablo Hess und lässt durchblicken, dass er die Entwicklung von Anlageprodukten auf der Grundlage künstlicher Intelligenz ebenso wachsam wie kritisch verfolgt: „Es gibt derzeit einige Fonds, die relativ neu auf diesen Zug aufspringen und entsprechende Modewörter benutzen. Dort wird gesagt: ‚Wir machen Deep Learning oder künstliche Intelligenz. Wir nutzen alternative Daten wie Twitter, wir beziehen Satelliten-Bilder von chinesischen Fabriken und Städten, um noch früher als andere über ökonomische Entwicklungen informiert zu sein.‘ Bei einem solchen Ansatz kommen komplexe Modelle zusammen. Aber man muss sich das mal vorstellen: Twitter verändert sich. Es gibt neue Teilnehmer, andere Netzwerke etablieren sich. Und es gibt ein sich ständig änderndes Nutzerverhalten. Man hat also in den Daten keine Konsistenz.“
Master and Servant
Tungsten setzt dagegen nicht auf die „Exotik der Daten“, wie Pablo Hess es formuliert. Für ihn stünden andere Aspekte im Mittelpunkt: „Ich muss die Natur der Daten durchdringen und beispielsweise verstehen, ob sie manipulierbar sind. Und: Sind sie in ihrer Frequenz robust? Sind sie verifizierbar? Wie kann ich sie in mein System einfüttern? Wie kann ich die Daten nutzen, um mein System zu verbessern?“
Tungsten ist da eher konservativ und verwendet Finanzmarktdaten, konkreter: Zeitreihen von Finanzinstrumenten, um mit Hilfe künstlicher Intelligenz damit Kursprognosen anzustellen. „Unsere Modelle lernen, auf Basis von Marktdaten den roten Faden der Märkte zu verstehen. Und sie machen jeden Tag eine Prognose über die wahrscheinliche Preisentwicklung“, erläutert Portfoliomanager Michael Günther. Mit Hochfrequenzhandel habe das nichts zu tun. Der Tungsten Trycon-Fonds setze nicht auf Geschwindigkeit in der Wertpapierselektion. Vielmehr habe man es mit einer Komplexität zu tun, die menschliche Marktteilnehmer nicht mehr erfassen könnten. „Wenn wir Informationen generieren, dann sollten die am Markt natürlich zeitnah umgesetzt werden. Da wir aber ein einzigartiges Signal generieren, müssen wir das nicht binnen Sekunden umsetzen.“
Mit einem leicht mulmigen Gefühl im Bauch danach befragt, ob der hauseigene Ansatz, so wie im Kinoklassiker „2001: Odyssee im Weltraum“, ein gewisses Eigenleben entwickeln könnte und sich daraus unabsehbare Folgen ergeben, entgegnet Michael Günther entspannt: „Wenn wir neue Modelle anwenden, werden diese wochenlang beobachtet und auf Robustheit und Fehler getestet. Da entsteht nicht etwa über Nacht etwas, das wir dann kurzerhand einsetzen. Bei uns gibt es Generationen von Modellen, die anhand neuer Daten immer mehr dazu lernen.“ Und jede neue Generation werde beobachtet, bevor sie live geschaltet wird. „Es ist ein kontrollierter Lernprozess, den wir manuell anstoßen. Und dessen Ergebnis wir dann auch verifizieren.“
Es sei nicht so, dass die Maschine eine Art Eigenleben entwickelt. „Wir delegieren zwar die Komplexität und damit das Berechnen und auch das Interpretieren, aber wir beschränken den Freiheitsgrad der Maschine, indem wir sagen: Jetzt ist Lernzeit. Und daraus geht das Modell mutmaßlich schlauer hervor. Es kennt mehr, weiß mehr, kann mehr. Und dann wird die Maschine im Alltag angewendet“, sagt Michael Günther. Kollege Pablo Hess ergänzt: „Der Computer ist der fleißige Arbeiter, aber der Mensch hat die Kontrolle inne. Der Kontrollverlust ist ausgeschlossen.“
Erfahrungen mit dem Einsatz künstlicher Intelligenz in der Kapitalanlage kann man der ebenfalls in Frankfurt beheimateten Catana Capital , attestieren. Bei dem Finanzdienstleister betreibt man seit Juli 2016 einen Big-Data- und K.I.-basierten Publikumsfonds, der seine Handelsentscheidungen auf der Basis von Textanalysen trifft. Mehr noch: Catana beansprucht für sich, weltweit den ersten Big-Data- und K.I.-basierten öffentlichen Investmentfonds zu betreiben. Das sogenannte Text Mining dient dazu, aus unstrukturierten Daten, etwa einer Sammlung von Texten, Wissen zu extrahieren. So durchforstet die 2015 gegründete Catana Capital mit Hilfe einer Text- und Spracherkennungssoftware vollautomatisiert hunderttausende relevante und im Internet verfügbare Nachrichten, Artikel, Research, Blogs und Tweets.
Results may vary
Der Asset Manager, in dessen Reihen weniger Wertpapierspezialisten arbeiten, sondern Wirtschaftsinformatiker, sammelt in sechs verschiedenen Ländern in deutscher, englischer und neuerdings auch in chinesischer Sprache Informationen zu knapp 30.000 Wertpapieren, darunter auch Währungen und Rohstoffe. Nach einem ersten Filterprozess, der nicht-kapitalmarktbezogene Informationen durch das Raster fallen lässt, landen etwa sieben Datensätze pro Sekunde in der hauseigenen Datenbank und werden von dort aus weiterverarbeitet. „Unser Fokus liegt auf den Aktienmärkten, da mehr über Aktien als über Renten gesprochen wird“, erläutert Geschäftsführer Holger Knauer im Gespräch mit portfolio institutionell.
Wie präzise die Nachrichtenlage verfolgt wird, zeigt folgendes Statement: „Wir können statistisch genau sagen, wie stark an einem Montag zwischen zehn und elf Uhr in den einschlägigen Foren über Unternehmen aus dem Dax diskutiert wird“, unterstreicht Knauer und berichtet, dass Catana im Monat Daten im Umfang von circa zwei Terabyte sammelt. „Und im Zuge der Datenverarbeitung wird das noch einiges mehr.“
Das Speichern der Datenmenge sei da noch der einfachste Punkt. „Wir behalten die Daten aber auch in ihrer unbearbeiteten Rohfassung, wir müssen sie ja auch wiederfinden. Das setzt von Beginn an eine ganz klare Struktur voraus. Und diese Datenmengen zugänglich zu machen und Gehalt herauszuziehen, mit Hilfe von künstlicher Intelligenz und Deep Learning, das ist eigentlich die Kunst.“ Der Catana-CEO rechnet damit, dass es in Zukunft für die Qualität des Asset Management entscheidend sein wird, proprietäre Daten zur Verfügung zu haben. Also einen eigenen Datenschatz, den die Konkurrenz so nicht hat.
Was die Herausforderungen der Textanalyse betrifft, erläutert Knauer: „Große Datenmengen in unserem Fall sind vor allem unstrukturierte Datenmengen. Und es sind neue, alternative Daten. Ein Geschäftsbericht ist eineindeutig. Ihn kann ich einfach auslesen. Die Kennziffern sind alle vorhanden und es geht auch darum, Informationen zu transportieren. Auch alles, was Analysten über Unternehmen schreiben, ist eineindeutig. Kursziel, Gründe. Das kann ich problemlos auslesen. Viel spannender wird es, wenn wir uns Presseartikel oder User-generierte Informationen im Internet anschauen. Jeder Autor und Redakteur hat seinen eigenen Schreibstil. Informationen werden in Worte, in Sätze gefasst.“
Holger Knauer sieht die schöne neue Welt mit einem lachenden und einem weinenden Auge: „Beim Deep Learning sieht man als Mensch nicht mehr, warum ein Computer überhaupt eine Entscheidung fällt. Dann gelangen wir an die Grenzen moderner Technologien. Auf Konferenzen wird viel über Deep Learning diskutiert und es wird daran geforscht, die Errungenschaften auch einzusetzen. Hier ergeben sich in der Kommunikation mit Investoren meiner Einschätzung nach völlig neue Fragestellungen. Ein aktiver Manager kann bekunden, wie und warum er eine Entwicklung eingeschätzt hat. Das ist etwas ganz anderes, als wenn Sie sagen: ‚Unser Computer hat aufgrund von Signalen entschieden, wir machen das so und nicht anders. ‘ Es muss ja nicht die schlechtere Entscheidung sein, aber es ist etwas ganz anderes, als wenn ein Mensch erläutert, was seine Ratio war und wieso er wie gehandelt hat.“
Danach befragt, ob beispielsweise Pensionskassen Adressaten von Catana sind, entgegnet Holger Knauer: „Ja! Wir wissen allerdings, dass sich diese Anleger mit diesen Themen noch etwas schwer tun. Eine neue Technologie ruft am Anfang immer Bedenken hervor.“ Aber: Das quantitative Konzept passe gut in ein klassisches Portfolio eines institutionellen Investors hinein. Ein Portfolio, dass mit einem engen Risikobudget hantiert und das größere Verluste deshalb um jeden Preis vermeiden will. „Wir passen vor allem deshalb gut in ein solches Portfolio, weil wir zu den klassischen Produkten keine Korrelation haben“, weiß Knauer und lobt: „Die Stärke unseres Ansatzes sind die starken Korrekturphasen, die viele Menschen aus irgendeinem Grund antizipieren können.“
A place for my head
Einen nicht minder innovativen Ansatz verfolgt Donner & Reuschel. Die Privatbank verfolgt das Ziel, die Marktführerschaft im sogenannten digitalen eAsset Management in Deutschland einzunehmen, indem sie gemeinsam mit dem Schweizer Softwareunternehmen Speedlab ein durchweg digitales Produktangebot für professionelle Investoren entwickelt. Kern des Vorhabens sind selbstlernende Algorithmen. Sie entscheiden, welche Strategien in welchen Anlageklassen wie lange in welcher Gewichtung eingesetzt werden. Das Besondere: Der Prozess wird laufend optimiert – ohne Eingriff eines Fondsmanagers. Speedlab setzt in verschiedenen Anlageprodukten bereits 200 sogenannte Robots oder auch Algorithmen ein, mit denen eine Vielzahl von unkorrelierten Strategien umgesetzt und automatisch weiter entwickelt wird. „Wir können die Ideen der Portfoliomanager digitalisieren“, sagt Speedlab-Geschäftsführer Marcus Böhm nicht ohne Stolz. Das sei aber nur mit Managern möglich, deren Konzepte vollautomatisch gut funktionierten.
Der Clou: „Mit Hilfe von Algorithmen kann man weltweit gleichzeitig sehr viele Märkte beobachten.“ Danach befragt, ob Robots einfach bessere Entscheider seien, entgegnet Böhm: „Unser Ansatz reagiert einfach schneller auf die Datenmengen, die auf uns zukommen. Das kann ein Mensch heute gar nicht mehr bewerkstelligen.“ Es gehe vereinfacht gesagt um technische Vorteile, Aktualitäten, Marktbewegungen. „Unsere Systeme sind insbesondere bei extrem schnellen Entwicklungen unschlagbar. Wir können Positionen binnen Sekunden drehen.“
Sind institutionelle Investoren eher euphorisch oder eher distanziert, wenn sie mit Algorithmen/selbstlernenden Systeme und allem was dazu gehört konfrontiert werden? Die Frage beantwortet Marcus Böhm mit einem Blick in Richtung Handy: „Manche haben noch das Uraltmodell von Nokia, während andere das neueste Smartphone nutzen. Damit will ich sagen, wenn jemand technisch affin ist, ist er auch an den neuen Entwicklungen im Asset Management interessiert. Die meisten Entscheider wollen die neuen Möglichkeiten nach meiner Einschätzung jedoch solange wie möglich von sich fernhalten.“ Die Lager seien gespalten.
Böhm sagt im Gespräch mit portfolio institutionell, dass die Fortschritte mit schnelleren Prozessoren und moderner Software erstmals eAsset Management ohne Medienbruch möglich machen. „Wir digitalisieren den gesamten Prozess des Asset Management und zwar vollautomatisch, darauf legen wir Wert. Das digitale Risiko Management und die Erstellung ganzer digitaler, intelligenter Portfolien runden unser Profil ab. Die Systeme, die mir bislang als Konkurrenten in den USA oder Europa gezeigt wurden, können das aktuell noch nicht.“ Mit Hochfrequenzhandel habe man aber nichts am Hut, sagt Böhm und fasst zusammen: „Einfach gesagt, durchforstet unser System Daten nach Mustern und Zusammenhängen und fällt auf dieser Basis seine Entscheidungen.“
Rage against the machine
Bei aller Euphorie beim Einsatz künstlicher Intelligenz gibt es auch distanzierte Auffassungen. Eine davon stammt von Dr. Henning Beck. Anlässlich der Jahreskonferenz von portfolio institutionell referierte der Biochemiker, Neurowissenschaftler und Buchautor („Hirnrissig“) im April 2017 über Gemeinsamkeiten und Unterschiede zwischen Mensch und Maschine: „Computer machen zwar weniger Fehler als das menschliche Gehirn. Aber sie kommen nur an den Ort heran, für den sie programmiert worden sind. Aber niemals an einen neuen. Das ist das, was wir Intelligenz nennen. Intelligenz bedeutet, dass ich schnell und fehlerfrei Rechenregeln befolgen kann. Aber Intelligenz ist nichts Besonderes. Es bedeutet nicht, die Regeln zu brechen!“
Beck zog ein denkbar interessantes Fazit, das den Schlussstrich dieser Erörterung bilden soll und zugleich die vom Supercomputer Hal 9.000 ausgehende Bedrohung ein wenig relativiert: „Egal, was Ihnen Science Fiction sagt: Kein super intelligenter Computer wird jemals die Welt beherrschen. Denn Intelligenz ist nicht genug. Man muss die Regeln ändern, man muss sie brechen! Wir Menschen können das. Computer suchen nach Zusammenhängen in bestehenden Daten. Aber neue Ideen erhält man so nicht. Maschinen sind unkreativ. Computer lernen, wir verstehen!“
Von Tobias Bürger
portfolio institutionell, Ausgabe 06/2017
Autoren: Tobias Bürger In Verbindung stehende Artikel:
Schreiben Sie einen Kommentar