Wäre es für jeden Systemtrader nicht traumhaft globale Informationen welche die Finanzmärkte beeinflusse automatisch und realtime zu sammeln,vollautomatisch aufzubereiten und zum handeln und real-Risikomanagement zu nutzen? Der Vorteil liegt auf der Hand: Da die Märkte überwiegend von aktuellen Ereignissen beeinflusst werden, wäre man immer am Puls des Geschehens so das Systeme wesentlich schneller und effektiver reagieren könnten. Welchen Vorsprung dieses Vorgehen gegenüber aus Backtets projizierten Kursmustern hat,muss man nicht weiter erklären! Historische Daten können Anhaltspunkte bieten sind aber oftmals für aktuelle Ereignisse nur bedingt brauchbar,da die Vergangenheit nicht 1:1 auf Gegenwart und Zukunft projiziert werden kann!
Durch die globale Vernetzung der Finanzmärkte werden Informationen immer schneller verbreitet und enden schon jetzt in einer Flut von marktbeeinflussenden Faktoren. Systemtrader haben nur bedingt-oder keine Möglichkeiten die aktuellsten Ergebnisse in ihre Systeme einzupflegen und real auszuwerten. Man kann sich oftmals nur auf auf Muster und Backtests stützen oder mit großem Programmieraufwand ein flexibles Systempaket erstellen! Das klappt zuweilen, aber oft erreicht man damit nicht den entsprechenden Vorsprung gegenüber dem Markt! Der diskretionäre/fundamentale Trader hat den Vorteil des Rundumblicks- aber kann die Flut von Informationen und Daten nicht so schnell auswerten wie ein Computer. Ein Mischung aus beiden,das wär's! Das oben verlinkte NN macht zumindest den Anschein,in diese Richtung zu arbeiten- wobei ich persönlich davon ausgehe, das es von quantitativen Reserach lebt! Bei der quantitativen Analyse wird aber auch mit historischen Daten gearbeitet und versucht die zu erwartende Rendite mit dem einhergehenden Risiko zu modellieren! Mit Hilfe der Regressionsanalyse wird versucht, unterbewertet Aktien zu finden und diese gezielt in Portfolios zu schichten! Als Anhalt gilt eine Rendite-Risikokennzahl-aber das soll aber nicht das Thema sein und unterscheidet sich zu CEP! Die Nachteile der systematik für den Privatanleger sehe ich bei der Beschaffung der nötigen Daten.
Anders soll es mit CEP gehandhabt werden (Einzelheiten siehe angehängte PDF)! Aus einer "Ereigniswolke",so wie es in der PDF genannt wird, soll die Software in der Lage sein, globale Informationen aller Richtungen zu filtern,aufzubereiten und innerhalb kurzer Zeit ausgewertet dem User zur Verfügung stellen. Persönlich glaube ich, das dies bei nicht allen Methoden des Tradens funktioniert und angewendet werden kann. Betrachtet man eines meiner Handelsumfelder,kurzfristiges Intradaytraden, werden die Kurse von vielen irrationalen Faktoren beeinflusst was beispielsweise beim FDAX zu hohen,nicht nachvollziehbaren Schwankungen führt wobei das Volumen die ganz entscheidende Rolle spielt! Aber angenommen man handelt Intraday ab 60 Minuten aufwärts können Tagesereignisse eine primäre Rolle für die Kurse spielen. Meist profitieren Systeme nicht davon weil sie für plötzlich auftretende Ereignisse nicht konzeptierbar sind! Desto kleiner die Komprimierung wird, desto chaotischer werden Kursbewegungen. Insofern wird man mit quantitativer Analyse,CEP und Algorithmen in den seltensten Fällen profitable Handelssystem mit sehr kleinen Komprimierungen erzielen können-es sein denn man riskiert einiges oder hat ein dementsprechend großes Konto-zumindest im Futurehandel!
Letztendlich glaube ich, das CEP für den Privatanleger nicht so schnell umgesetzt werden kann,obwohl es eine von den vielversprechenden Systematiken ist,da Gegenwärtiges betrachtet und einbezogen wird! Ähnlich gehe ich an dieser Stelle mit Markt Plus vor wobei ich kaum die Vergangenheit betrachte denn jedes Ereignis führt zu immer neue Konstellationen. Die Vergangenheit kann sich wiederholen aber bestimmt nicht in der gleichen Form. So kann eine Systemmodellierung nur ein roter Faden durch die unendlich vielen Konstellationen in der Datenhistorie sein wobei man ein Kursmuster finden muss,welches die Chancen 51% für den Trader taxt...
Eine Methode,mit der ich mich noch nicht (leider) intensiv beschäftigt habe könnte Data Mining sein. Aber auch hier wird man ein Datenproblem haben. Im Net stehen viele Daten und Informationen-aber leider können die heutigen Softwareprodukte dies noch nicht ausnutzen.Übrigens verwenden die Quants oftmals nur sehr kleine Formeldatensätze-schlicht und einfach aber zielgenau! Genauso sehe ich das beispielsweise beim NN. Nicht die menge der Inputs ist entscheidend-nicht die Länge der Modellierung sondern der Inputs an und für sich so wie dessen Aufbereitung für den "Connect".Vielleicht gibt es aber auch andere Meinung erfahrener "Modellierer"...??