Samstag, 27. April 2024, 11:01 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

Lieber Besucher, herzlich willkommen bei: INVESTOX-Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

chied

unregistriert

1

Mittwoch, 20. Mai 2009, 11:42

Stabilität neuronaler Netze

Hallo

lange suche ich nach einem mathematischen Verfahren um die Stabilität von neuronalen Netzen beurteilen zu können.

Nun habe ich einige mathematische Artikel gefunden, mit denen ich aber leider kaum was anfangen kann, da diese für mich als
"nicht"- Mathematiker schwer verständlich sind.

Deswegen wollte ich fragen, ob jemand generell ein mathematisches Verfahren empfehlen kann oder daran interessiert ist, mit
mir ein Verfahren auf Basis folgender Links zu Erarbeiten.

Idealerweise würde jemand wissen, wie man mit einer Jakobimatrix umgeht.

http://www.irt.rwth-aachen.de/fileadmin/IRT/Download/Lehre/HRT/De/Vorlesung_NLSysteme08.pdf

http://www.tu-harburg.de/~seog0663/nldyn/nldynfragen.pdf

http://www.up.ethz.ch/education/system_analysis/handouts/sysanaly_2_week2_hs08.pdf

Darüber hinaus habe ich mit dem Institu für Neuroinformatik kontakt aufgenommen.

Vielen Dank und

beste Grüsse

Roger

lando

unregistriert

2

Sonntag, 5. Juli 2009, 23:44

@chied

Zitat

Institu für Neuroinformatik


Wie heisst das Institut? Ich vertrete die Ansicht, das man Stabilität mit Algorithmen für Gegenwart und Zukunft rechnerisch bzw. statistisch nicht verlässlich bewerten kann! Die statistischen Ergebnisse sind zu schwammig.Die meisten Systeme, die mit GA oder Netzen produziert und pubiziert werden sind überoptimiert,beziehen ihre fantastischen Ergebnisse auf den Backtest und funktionieren nur für einen begrenzt Zeitraum in der Realität! Alles andere muss mit einem Glaskonto nachgewiesen werden bevor man es glauben kann! Insofern erübrigt sich ein hochinterlektuelles Bewertungsverfahren für Stabilität aufgemotzter Handelssysteme! Die resultierenden schönen Zahlen sind Backtest Kosmetik und wenn es Dicke kommt Verkaufsargumente.


Vor kurzen wurde hier im Forum ein neuer Algorithmus (das Verfahren ist mir bekannt) von Gerasan vorgestellt. Auf den ersten Blick sieht alles sehr gut aus.Ich frage in die Runde der Nutzer ob es auf den zweiten Blick immer noch alles erste Sahne ist? Ich kann mir vorstellen das der Algorithmus sehr an den jeweiligen Verlauf des Bachtests gebunden ist,zum starken überoptimieren neigt und die Haltbarkeit nur so lange bestand hat, bis es zum Zykluswechsel in der Zeitreihe kommt! Könnten meine gewagten Aussagen zutreffen oder liege ich daneben? Grundsätzlich finde ich eine Auswahl unterschiedlicher Algorithmen gut aber warum wird das nicht von Knöpfel Software im XL Basisversionpaket angeboten? Wenn ich zusammenrechne wird Investox XL+dies und das was der Autotrader benötigt, empfindlich teuer! In einem Thread habe ich gelesen, das sich jemand einen I7 Quad zu Gerasans Algorithmuspaket dazugekauft hat (so etwas lese ich auch das erste mal)! Ist diese Variante etwa notwendig? Rechne ich alles zusammen, liegen meine Hochrechnungen für ein fortschrittliches Investox-Paket bei ca. 3-4,5 tsd.€ mit allen pipapo! Das ist heftig! Dazu kommt noch ein ordentliches Money und Risikomanagement Tool und ein Statistikprogramm,falls Excel nicht reicht oder die Auswertung zum umständlich ist! Und dann hat man immer noch keinen Vollautomatismuss sondern muss immer noch manuell fuchteln!

Das Thema gehört nicht zu deinem Thema aber ich wollte keinen extra Thread aufmachen. Falls es fehl am Platz ist bitte ich den Admin es zu thematisieren in eine vorgesehene Rubrik zu verschieben!

lando

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

3

Montag, 6. Juli 2009, 10:28

Hallo Lando,

deinen "Bauchgefühl" zur Stabilität von Algorithmen für Vorhersagen teile ich mit dir. Ausgefeilte mathematisch, statistische Verfahren bieten keine Gewißheit.

Ist es aber nicht doch so, dass wir alle so oder so mit einem etwas mulmigen Gefühl unsere Glaskugel betrachten? Ob ich nur ein Ausbruchssystem mit Pyramidisierung, Stopstrategieen etc. entwickle und dieses gegen die weite Vergangenheit verifiziere oder halt mit NN oder SVM arbeite. Immer bleibt es eine Glaskugel. Bei bestimmten Strategien arbeiten wir mit für uns nachvollziehbaren Annahmen oder besser gesagt Hypothesen über das zukünfitige Verhalten. Solche Hypothesen z.B. über die Korrelation von Märkten oder Indizes und Volumensentwicklung geben uns das Gefühl, dass wir wüßten was wir tuen. NN oder SVM entziehen sich weit stärker jeder Nachvollziehbarkeit durch den "gesunden" Sachverstand. Dort können wir etwa durch die Wahl der Inputs und der Zielgrößen noch Einfluss nehmen, aber was dann folgt bleibt uns verborgen.

Daher ist es für mich grundsätzlich weniger eine Frage der Verläßlichkeit sondern eher eine der Mentalität des Handelnden. Vertraue ich auf ein mathematisch nicht sicher in die Zukunft schauendes System mit NN oder SVM oder vertraue ich auf ein nicht sicher in die Zukunft schauendes System welches auf der Grundlage von "plausiblen" Hypothesen arbeitet?

Noch zum Überoptimieren bei dem "Neuen Algorithmus". Dieser Algorithmus - SVM - ist keine Wunderwaffe. Er bietet keine Sicherheit für Handelsentscheidungen. Er macht nicht automatisch reich. Aber er ist wie zahlreiche Quellen belegen bezüglich Performance und insbesondere bezüglich Überoptimierung besser als die klassischen NN (Backpropagation). Und mit NN haben im Kontext Investox schon einige gute Erfolge erzielt 8) . Der "Algorihmus" ist auch nur ein Bestandteil dessen, was Gerasan nennt. So möchte ich hervorheben, dass in der Software ein kontinuierlicher FeedForward Test integriert ist. Dabei muss ich an die vielen, sehr hilfreichen Anmerkungen von Udo zu diesem Thema denken.

Der "Algorithmus" wird von mir übrigens unter anderem auf einem 3 Jahre alten Notebook (Dell 420) weiterentwickelt und getestet. Für richtig lange Optimierungen ist der etwas schwachbrüstig, aber mit Geduld geht es. Entscheidender gerade für das Intraday-Handels ist für mich aber die Performance bei der Umsetzung. Und dort zählen mehr andere Faktoren wie etwa die Anbindung an das große Netz. Der "Algorithmus" selber braucht auf dem Dell ein paar Millisekunden.

Deine Hinweise zum Money- und Risikomanagement kann ich gut nachvollziehen. Hast du dort vielleicht ein paar gute Ansätze über die man diskutieren und an denen man dann arbeiten könnte.

Herzlicher Gruß

Martin

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 071

Wohnort: Iringsweg

4

Montag, 6. Juli 2009, 19:14

Hallo Martin

Prima Metapher! Ja, eigentlich ist die ganze Systementwicklung das Erschaffen einer Glaskugel. Das macht es ja so spannend; jeder kann sich nämlich seine Eigene basteln, und wenn man dann Geld drauf setzt beweist man, dass man an seine persönliche Glaskugel glaubt :D Sehr nett erklärt!

Mit den SVM's habe ich mich zwar bisher nicht beschäftigt, aber die NN's können einen ordentlichen Schub bringen. Solange sie funktionieren ist das wie die Lauch Control am Wagen. Wenn sie nicht funktioniert, fährt der er aber trotzdem. Daraus lernen wir, ...

@lando

... dass man über die Bestimmung der Prognosegüte zurückschalten kann auf konventionelle Signalgebung, wenn die Launch Control versagt.


Hallo Roger

Ich habe bisher recht gute Erfahrungen gemacht mit einer abgewandelten Treffer-Quote, die ich in einen "Forecast-Review" einfliessen lasse. Solange das NN brauchbare Forecast's liefert, sind die am Zug. Wenn nicht, dann greifen die konventionellen Trigger. Nimmt das NN wieder Fahrt auf, übernimmt es wieder. Fällt die "Lauch Control" zu oft aus, muss man halt nachtrainieren für den Fun Factor. Hintendran steht ein zu meinem System passendes MM/RM, so what 8)


PS: hier findet man Formeln, die sich zum Teil recht einfach in Investox umsetzen lassen; ... allerdings bin ich noch nicht bis zum GOVA vorgedrungen; als Pragmatiker nehme ich lieber den Quick Win (z.B. TQ+, wenn es denn in meinem HS funktioniert) :engel:
Gruss
Bernd

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

5

Dienstag, 7. Juli 2009, 09:44

Hallo Bernd,

Du hast eine super verständlich und informative Quelle eingestellt. Wenn ich mal ein wenig Zeit finde werde ich mir die GOVA anschauen und sehen, ob sie sich nicht mt begrenztem Aufwand umsetzen kann, eine DLL wäre optimal.

Mit SVM probieren wir gerade einen auf gewisse Weise ähnlichen Ansatz, nur statt die Qualität der geschätzten Werte mit den tatsächlichen Werten zu vergleichen probieren wir statistische Gütemaße für die Lernzeiten zu berücksichtigen. Hast du dich mal mit einem solchen Ansatz beschäftigt?

Gruß

Martin

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 071

Wohnort: Iringsweg

6

Dienstag, 7. Juli 2009, 17:57

Hallo Martin

Prima, wenn Du die Quelle ebenfalls hilfeich findest. Ich denke auch, dass ich da noch das eine oder andere daraus umsetzen kann oder werde.

Das klingt interessant:
... probieren wir statistische Gütemaße für die Lernzeiten zu berücksichtigen.

Kannst Du mal ein Beispiel reinstellen, um das Vorgehen etwas zu veranschaulichen? Wäre die Anwendung dieser Idee auch für gemeine NN's anwendbar, oder eignet sich dies nur für SVM's ?
Gruss
Bernd

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

7

Donnerstag, 9. Juli 2009, 09:55

Hallo Bernd,

ein konkretes Beispiel kann ich hier noch nicht veröffentlichen. Einerseits setzt es die ADMG-Software in der aktuellen Betaversion voraus, andererseits habe ich von hier im Moment keinen Zugriff auf meine experimentellen Systeme.

Aber der Ansatz ist relativ einfach. In ADMG arbeiten wir mit einem kontinuierlichen FeedForward Verfahren. Für die festgelegte Anzahl von Lernperioden wird das Verfahren - etwa mit SVM als Schätzer - optimiert. In der oder den anschließenden Arbeitsperioden wird der Schätzer dann verwendet. Es gibt nun eine Reihe von Gütemaßen die bestimmen, ob in der "Lernzeit" das System gut oder weniger gut mit den vorhandenen Daten zurecht kam. Ein solches Gütemaß kann einfach der absolute Fehler zwischen den für diese Perioden ermittelten Schätzwerte und den tatsächlichen Zielwerten sein. Ein anderes deren Korrelation.



Wenn der für die festgelegten Arbeitsperioden ermittelte Schätzer ein gutes Gütemaß aufweist wird er verwendet, wenn nicht wird für diese Arbeitsperionden kein Signal verwendet. Das Gütemaß fungiert einfach als Filter.

Bisher bin ich mehr in der Entwicklung hängend. Erste Tests zeigen, dass der Filter interessant ist.

Gruß

Martin

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

8

Donnerstag, 9. Juli 2009, 09:57

Sorry, in der Black-Box stand einfach, dass halt das Gütemaß der Lernperioden als Filter in die Arbeitsperioden fließt. Powerpoint hat den Text etwas "verfärbt:):

Gruß

Martin

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

9

Sonntag, 26. Juli 2009, 01:33

@Roger

Zu Deiner ursprünglichen Frage lehne ich mich nicht zu weit aus dem Fenster wenn ich schreibe: Stell die Suche ein,das gibt es nicht! Die Stabilität wird von zu vielen Faktoren beeinflusst und man kann nicht direkt die Klassifizierung der Muster erforschen und wenn doch, bleibt immer noch die Frage des Zusammenwirkens der verschieden Input-Kombinationen! Man könnte den Output auf Stabilität prüfen aber das wichtigste sind sinnvolle Inputs und wie sie dem Netz vorgehalten werden und das ist an trendlosen Chaostagen nicht einfach.Ein Netz ist nur so gut wie die Inputs und es hat die Fähigkeit gut funktionierende und abgestimmte Kombinationen länger als konventionelle Systeme am "Leben zu erhalten". Dabei kommt es nicht nicht sooo auf den Netztyp an von dem es viele unterschiedliche gibt. Manipulationen der Funktionsstellen an nicht besonders guten Netzen bringen nichts und die Netze werden in kurzer Zeit abstützen. Wenn ein Netz auf Anhieb und bei mehrmaligen Training immer wieder Kontinuität zeigt, hat man gute Chancen ein stabiles Netz entwickelt zu haben. Trainiert man das Netz beispielsweise 5 mal und hat 5 völlig unterschiedliche Kapitalkurven und Systemparameter stehen die Chancen auf anhaltende Stabilität relativ schlecht! Also lieber mal auf die Umgebung abtasten, als am offenen Herzen zu operieren...:) Ich glaube nicht das man Finanzwissenschaftler oder Mathematik/Statistik Experte sein muss, um etwas brauchbares zu entwickeln.Aber man wird nach wie vor viel Zeit benötigen.

@ Martin

So weit ich in der Grafik erkennen kann ist der Lernzeitraum vs Arbeitsperioden ein festes Raster? Hmm.bei SVM ist das nicht ganz ohne da das Hauptaugenmerk die Historie ist! Die Qualität der Prognose hängt im hohen Maß vom gelernten Muster ab. Erfolgt ein Strukturbruch der in der Historie nicht klassifiziert wurde, kann es relativ eng werden. Ein weiterer entscheidender Punkt wäre folglich der Verlauf des Underlyings!
Happy Trading

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 071

Wohnort: Iringsweg

10

Sonntag, 26. Juli 2009, 14:28

@Roger

Zu Deiner ursprünglichen Frage lehne ich mich nicht zu weit aus dem Fenster wenn ich schreibe: Stell die Suche ein,das gibt es nicht!


Sorry, Udo

meine Tests sagen was anderes, nämlich dass man die Beurteilung der Prognosegüte sinnvoll einsetzen kann und ich habe das Herangehen ja auch oben beschrieben.

... das ist doch schon mal ein guter Ansatz, so würde man auch einen menschlichen Experten beurteilen

Man könnte den Output auf Stabilität prüfen

Plus dem oben beschriebenen Umschwung (z.B. automatischer Fallback auf konventionelle Trigger als Plan B).


@Martin


Erfolgt ein Strukturbruch der in der Historie nicht klassifiziert wurde, kann es relativ eng werden. Ein weiterer entscheidender Punkt wäre folglich der Verlauf des Underlyings!


DIes ist auch für mich der Punkt, wo mir das Konzept mit dem SVM Walk Forward Test noch nicht schlüssig scheint! Fixe Zeitraster können auch ohne SVM über Zeiten hinweg prima funktioniert, um dann über Nacht wegzubrechen! Es müsste die Möglichkeit geben, den WFT aufgrund gewisser Einflüsse über die Zeit hinweg variabel zu gestalten! Selbstadaptierend.
Gruss
Bernd

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

11

Sonntag, 26. Juli 2009, 22:42

Hallo Bernd,

ich habe jetzt nicht die verlinkte PDF Datei komplett durchgelesen aber ich verstehe auf Anhieb nicht, was Deine Vorgehensweise mit der Beurteilung eines kompletten NNs zu tun hat? Du legst n-Werte Forecast und wenn die Korrelation vs Realität einen gewissen Wert (Koeffizienten) beibehält handelst Du das NN. Ist das nicht der Fall, switcht Du auf ein konventionelles HS und weißt aber nicht, ob das konventionelle HS ebenfalls verlieren könnte. Da Du nicht ohne Sicherheitsnetz arbeiten möchtest hängst Du ein MM/RM an...was eigentlich jeder tun sollte..;) Im schlimmsten Szenario verlierst Du von 10 Trades 10,orientiert man nach der Random Theorie bei 5 maligen Switch! Ich hoffe ich habe das so korrekt interpretiert! Was gibt Deiner Methodik die Sicherheit, dass das konventionelle HS gewinnt wenn das NN verliert und wie ermittelst Du ob das NN nicht nur 2-3 Fehltrades hatte und dann in Serie gewinnt während der Switch auf das konventionelle HS Verluste einfährt?

Ein Stabiles NN, so habe Rogers Frage verstanden, bezeichne ich wenn gewisse Stresstest, zumindest nicht überdimensional im Minus enden. Deine Vorgehensweise verstehe ich eher als Methode. Mit welchen Kennzahlen belegst Du die Stabilität des Neuronalen Netzes,mit anderen Worten was sagt Dir, dass das NN stabil entwickelt wurde und wie sehen die renale Ergebnisse gegenüber dem Backtest aus?


... das ist doch schon mal ein guter Ansatz, so würde man auch einen menschlichen Experten beurteilen

Meinst Du: Ein menschlicher Experte würde es so beurteilen oder verstehe ich die Aussage falsch? Aber wie würde er Beurteilern-nach eine Zahlenmatrix?
Happy Trading

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

12

Montag, 27. Juli 2009, 16:57

Euer Hinweis zum Strukturbruch in der Historie ist absolut richtig!

Natürlich besteht immer diese Gefahr. Ein Verfahren bei dem die für den Indikator gerade erforderlichen Perioden der Vergangenheit berücksichtigt werden wäre super. Dies gilt jedoch im gleichen Maß für NN wie auch für den trivialen GD. Einen gängigen Ansatz habe ich leider noch nicht gefunden.
Das Problem ist jedoch nicht auf SVM beschränkt sondern gilt für jede Art von Indikator. Das von uns implementierte FeedForward Verfahren hat "nur" die Schätzqualität über die Vergangenheit besser beurteilen zu können.

Habt ihr vielleicht ein paar Ideen für eine Verbesserung?

Gruß

Martin

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 071

Wohnort: Iringsweg

13

Montag, 27. Juli 2009, 18:56

Hallo Udo

Ich habe bisher kein Konzept gesehen, mit dem dies hier
Mit welchen Kennzahlen belegst Du die Stabilität des Neuronalen Netzes,mit anderen Worten was sagt Dir, dass das NN stabil entwickelt wurde und wie sehen die renale Ergebnisse gegenüber dem Backtest aus?

gelingen würde. Kennst Du denn eines?

Das ist doch in etwa so, als wenn man jemandem, der gerade erfolgreich sein Uni-Studium hinter sich gebracht hat, aufgrund dieser "Leistung" seinen künftigen Erfolg voraussagen will!

Meinst Du: Ein menschlicher Experte würde es so beurteilen

Desswegen hast Du den Satz falsch verstanden: ich habe ihn (den Satz) in Bezug auf den Experten grammatikalisch gesehen ins Passiv gesetzt. Um es noch klarer zu machen, habe ich dann noch ein Zitat von Dir hintenangesetzt: "Man könnte den Output auf Stabilität prüfen ". Gemeint ist sowohl im Satz als auch sinngemäss in meinem vorhergehenden Beitrag, dass der Experte beurteilt wird :rolleyes: Das ist ja auch der Tenor der verlinkten PDF Datei.

Natürlich kannst Du nun wieder einwenden, und hast es auch schon, dass ich im schlimmsten Szenario 10 von 10 Trades verlieren könnte. Das kann aber bei jeder Herangehensweise der Fall sein, wenn zum Unglück auch noch Pech dazu kommt 8o Am Ende ist es eine persönliche Frage, ob man Handelssysteme entwickeln will und wie. Umgekehrt würde ich Dich als primär diskretionär orientierten Trader (entschuldige, wenn ich das falsch beurteile, aber so habe ich alle Deine Beiträge bisher gelesen und noch von keinem Handelssystem, welches Du automatisch laufen lässt) bitten darzulegen, wieso Deine Methode nicht 10 von 10 Trades verlieren kann.


Hallo Martin

Habt ihr vielleicht ein paar Ideen für eine Verbesserung?

Dass sich jemand aufmacht, um Investox mit einem WFT aufzwerten, wenn auch nur in einem Teilbereich, finde ich erstmal sehr positiv! Das ist leider etwas, was im Investox Standard überhaupt fehlt.

Und dass es keinen Königsweg für variable Periodenlängen beim WFT gibt, zeigt nicht zuletzt die gerade laufende Diskussion! Für mich als Systementwickeler würde es ausreichen, wenn ich die Periodenlängen des WFT über die Zeit hinweg über zwei eigene Formeln anpassen könnte, eine für jeden Zeitraum. Denn am Ende ist die Systementwicklung halt keine exakte Wissenschaft, sondern wird, wie das diskretionäre Traden, eine Kunst bleiben! Also muss man es dem Künstler überlassen, wie er diesen Teil gestaltet 8)
Gruss
Bernd

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

14

Dienstag, 28. Juli 2009, 00:09

Hallo Bernd,

mein Einwand kam auf folgende Antwort von Dir:

Zitat

Sorry, Udo
meine Tests sagen was anderes, nämlich dass man die Beurteilung der Prognosegüte sinnvoll einsetzen kann und ich habe das Herangehen ja auch oben beschrieben.
... das ist doch schon mal ein guter Ansatz, so würde man auch einen menschlichen Experten beurteilen


...auf folgendes von mir:

Zitat

Zu Deiner ursprünglichen Frage lehne ich mich nicht zu weit aus dem Fenster wenn ich schreibe: Stell die Suche ein,das gibt es nicht! Die Stabilität wird von zu vielen Faktoren beeinflusst und man kann nicht direkt die Klassifizierung der Muster erforschen und wenn doch, bleibt immer noch die Frage des Zusammenwirkens der verschieden Input-Kombinationen!


Also kam ich,um die Gedankenreihe eine Logik einzufflößen darauf,das Du eine Methode hast, ein System hinsichtlich der Stabilität zu beurteilen. Das war auch die Eingangsfrage von Roger auf die ich mit oben stehenden geantwortet habe.

Jetzt schreibst Du folgendes:

Zitat

Ich habe bisher kein Konzept gesehen, mit dem dies hier gelingen würde. Kennst Du denn eines?


Und nun kenne ich mich leider nicht mehr aus :) . Hast Du nun ein Konzept die Stabilität nachhaltig zu beurteilen,was Rogers Frage war, oder nicht? Ich schrieb das ich die PDF nicht vollständig gelesen habe.

Zitat

Das ist doch in etwa so, als wenn man jemandem, der gerade erfolgreich sein Uni-Studium hinter sich gebracht hat, aufgrund dieser "Leistung" seinen künftigen Erfolg voraussagen will!


Du schreibst von einer Erwartung! Eine Erwartung ist keine konstante messbare Größe. Ein Student der keinerlei Berufsjahre mitbringt wird an seinen Noten gemessen-die einzige nachweisbare Größe die einem zukünftigen Arbeitgeber zur Verfügung stehen. Hat er sein Studium mit 1 abgeschlossen, erwarte ich bessere Leistungen als bei jemanden der das Studium mit 3 beendet hat! Aber manchmal ist es eben auch anders herum. Um das auf ein NN oder System abzuleiten hast Du bei gewissen Zahlenkonstellationen (egal ob GA mutiert oder RB-Test Justierung) Erwartungen für die zukünftige Entwicklung des Systems,abgeleitet aus dem Backtest nach dem das System ausgerichtet und justiert wurde. Du weißt aber noch lange nicht,ob die Erwartungen erfüllt werden und genau diesen Punkt habe ich mit dem vorletzten Posting angedeutet!

Zitat

Desswegen hast Du den Satz falsch verstanden: ich habe ihn (den Satz) in Bezug auf den Experten grammatikalisch gesehen ins Passiv gesetzt. Um es noch klarer zu machen, habe ich dann noch ein Zitat von Dir hintenangesetzt: "Man könnte den Output auf Stabilität prüfen ". Gemeint ist sowohl im Satz als auch sinngemäss in meinem vorhergehenden Beitrag, dass der Experte beurteilt wird :rolleyes: Das ist ja auch der Tenor der verlinkten PDF Datei.


Ein NN ist sinngemäß ein Experte. Soweit ich es verstanden habe beurteilst Du den Experten mit Hilfe vorgeschobener Signaltests bzw. Stepp Forward. So weit so gut aber der Experte bezieht sich auf Muster die er von n-Zeiten gelernt hat und aktuelle Situationen können beim überwachten Lernen und GA nicht vorgehalten werden-anders bei SVM. Zwei Gründe dazu. Das eine ist ein zeitliches Problem und das andere ist,das überwachtes Lernen Backprop und GA jeweils Pseudo Einstiege für die Optimierung verwenden. SVM hingenen nicht!Angenommen die Steigung/Fallung verläuft linear und in 5 Tagen kommt ein Knick. Was wir der Experte sagen und wie wird der Expertentest den Experten beurteilen? Ich würde sagen,es ist eine Frage welche Muster das NN gelernt hat und generalisieren kann und wie lang die Historie ist falls Musterketten verwendet wurden!

Zitat

Natürlich kannst Du nun wieder einwenden, und hast es auch schon, dass ich im schlimmsten Szenario 10 von 10 Trades verlieren könnte. Das kann aber bei jeder Herangehensweise der Fall sein, wenn zum Unglück auch noch Pech dazu kommt


Ich möchtes dies mit einem kleinen Beispiel beantworten. Wir handeln beide ein NN mit 50% Trefferquote. Das heißt, wir können theoretisch von 10 Trades 5 gewinnen und 5 verlieren( Random). Du handelst 2 Systeme,das NN und ein konventionelles System. Wir machen beide 10 Trades. Am Anfang setzen wir beide das NN ein und verlieren die ersten 5 Trades. Ich bleibe beim NN und Du switcht auf das konventionelle System das ebenfalls eine TQ 50% hat. Die folgenden 5 Trades gewinnt das NN aber das konventionelle verliert die ersten 5 Trades und gewinnt danach 5 Trades. Somit hast Du 10 Trades in Serie verloren und ich 5 und was machst Du bei der Konstellation-wieder auf das NN switchen? Der Knackpunkt ist genau zu timen wann verlasse ich das verlierende NN und switche und welche Sicherheiten und Chancen habe ich zukünftig mit dem Switchen? Das kann man eventuell mit einem FW Test beantworten aber unter der Voraussetzung andere,schnellere Algorithmen! Abgleichen kann man das natürlich über MM/RM keine Frage aber mit geht es um die Nachhaltigkeit der Methode! Genausogut könnte ich bei 10 Trades 5 mal manuell eingreifen und 5 Trades lasse ich das System machen. Wenn es blöd kommt verliert man 10 Trades! Alles vorweg geschriebene natürlich unter der Voraussetzung das es sich um ein und denselben Titel handelt und nicht um verschiedene oder ein Portfolio Strategie!


Zitat

8o Am Ende ist es eine persönliche Frage, ob man Handelssysteme entwickeln will und wie. Umgekehrt würde ich Dich als primär diskretionär orientierten Trader (entschuldige, wenn ich das falsch beurteile, aber so habe ich alle Deine Beiträge bisher gelesen und noch von keinem Handelssystem, welches Du automatisch laufen lässt) bitten darzulegen, wieso Deine Methode nicht 10 von 10 Trades verlieren kann.


Wie man handelt spielt keine Rolle. Entscheidend ist was unterm Strich steht! Alles,auch Deine Backtests müssen sich in der Realität bewiesen. Ich habe keine Backtests sondern meine Kennzahlen aus realen Research gezogen. Ich möchte ein kurzes Beispiel geben. Wenn man 10 LongCandles 10 mal konträr handelt,werden nicht alle 10 in Richtung der LongCandle ausbrechen... :D Nur eine der winzig kleinen Details. Wenn man auf einem POC handelt ist es unwahrscheinlich das bei 10 Pullbackanläufe doch noch nach oben unten weglaufen. Man muss schon darauf achten, was man handelt und mit welchen Chancen. Als halbautomatischer Trader hat man genügend Elastizität,um Schwierigkeiten zu manövrieren aber der Weg zum halbautomatischen Trader ist genauso mühevoll wie ein funktionelles Handelssystem zu entwickeln.Aus dem Handgelenk und einem Bauchgrummeln läuft auf Dauer nichts...


Hallo Martin,

man könnte versuchen zufällige Periodenreihen zu trainieren und dem gegenwärtigen Chart Verlauf vorhalten.Oder prüfen, ob SVM profitabler arbeitet,als vergleichbares Random Walk System! Die Gewinnserien bei SVM sollten sich dann maximieren wenn die Zeitreihe Linearität aufweist und bei hochfrequenten,nicht regelmäßigen Amplituden an Profit verlieren? Ich habe die Software leider nicht getestet und daher handelt es sich um meine Annahme.
Happy Trading

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

15

Dienstag, 28. Juli 2009, 09:18

Hallo Udo,

Zitat

man könnte versuchen zufällige Periodenreihen zu trainieren und dem gegenwärtigen Chart Verlauf vorhalten.Oder prüfen, ob SVM profitabler arbeitet,als vergleichbares Random Walk System! Die Gewinnserien bei SVM sollten sich dann maximieren wenn die Zeitreihe Linearität aufweist und bei hochfrequenten,nicht regelmäßigen Amplituden an Profit verlieren? Ich habe die Software leider nicht getestet und daher handelt es sich um meine Annahme.


Zufällige Periodenlängen haben wir bisher nicht betrachtet. Ich sehe aber bisher wenig Aussagekraft bei zufälligen Variationen der Periodenlängen und die Anzahl der notwendigen Untersuchungen würde leider die vorhandenen Rechenleistung vollkommen übersteigen - für derartige Untersuchungen bräuchte man eine große Zahl von Experimenten, um eine statistisch tragfähige Aussage zu erhalten.
Den Test mit RWS haben wir gemacht. Für die untersuchten Titel halte ich im Rahmen der Untersuchungen die Performanz für deutlich besser.
Deinen Hinweis bezüglich Linearität und "nicht regelmäßigen" Amplituden kann ich - wenn auch ohne nachweisbaren Beleg - aus meinen bisherigen Untersuchungen bestätigen.

Gruß

Martin

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

16

Dienstag, 28. Juli 2009, 10:01

Hallo Martin,

Zitat

Deinen Hinweis bezüglich Linearität und "nicht regelmäßigen" Amplituden kann ich - wenn auch ohne nachweisbaren Beleg - aus meinen bisherigen Untersuchungen bestätigen.


Wenn es hier hapert,wird es schwierig weil genau das eintrifft, was vermieden werden sollte! SVM profitiert lediglich von der Historie. Die Qualität des kompletten Systems ist abhängig davon, welches Zeitfenster SVM zum lernen vorgelegt wurde! Nun bräuchte man einen Vorschaltcode der filtert, ob man dies oder jenes SVM-System anwenden sollte oder ein gutes MM/RM das die krassen Richtungsfilter ausmanövrieren kann ohne zu viel Geld zu verbrennen. Bei Feed Forward Test sollte man mit unterschiedlichen Musterbündeln und Schritt für Schritt die Zeitreihe abklappern. Das problematische ist das unterschiedliche Längen der Historie unterschiedliche Muster entwickeln. Man kann nicht immer davon ausgehen,das man genau das Muster abgreift das den zukünftigen Trend bestimmt. Daher kommt es auch bei Schwankungen zu Verlusten. Würde einen 1-2-3-4-5 usw. Wellenform für die Signalgenerierung abgegriffen läge das SVM bei zukünftig ähnlichen Muster wahrscheinlich relativ gut.Ob die Nieschen erreicht würden kann ich leider nicht sagen.Ich glaube das wird auch der FW-Test bestätigen! Somit könnte man hunderte von Testreihen aufstellen und wüsste schlussendlich nicht,ob die Zukünftigen Signale eine gewisse Stabilität zeigen. SVM passt sich zu stark der Historie an. Läuft der gegenwärtige Zyklus ähnlich dem getesteten wird man mit hoher Wahrscheinlichkeit enorme Gewinne einfahren. Es ist problematisch und daher auch die Frage zu Random Walk. Beim RW Test wird Querbeet geschätzt aber der Nachteil zu SVM ist, das seltener SignasSerien produziert werden wovon SVM bei Linearität der Zeitreihe profitiert.Je schwungvoller das Underlying ist,desto mehr befürchte ich nähert sich SVM an RW an.
Happy Trading

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

17

Dienstag, 28. Juli 2009, 11:05

Hallo Udo,

ich glaube, dass leider wohl die meisten Verfahren bei linearen Zusammenhängen deutlich optimaler arbeiten als bei starken stochistischen Schwankungen in jeder Richtung. Bei NN gilt dies wie bei den üblichen Indikatoren. Einer Linie zu folgen ist einfach "einfacher" 8) . Die Frage ist wieviel besser man es auch in den kritischen nicht linearen Bereichen schafft die KK hoch zu halten. An 100 % Trefferquote glaube ich nicht. Aber ich glaube, man kann an ihr arbeiten.

Wenn du aber sehen würdest wie mit SVM z.B. Sinuskurven - alles andere als linear - perfekt prognostizierbar sind, würdest du das "lediglich Historie" vielleicht anders ausdrücken.

Lediglich Historie ist für mich nicht zu sagen aus 1-2-3-4-5 folgt 6. Auch bei der Sinuskurve oder jedem anderen Zusammenhang nutzen wir "lediglich die Historie" gepaart mit unseren Hypothesen über die Zusammenhänge aus. Auch wenn SVM wie NN nicht mit festen Algorithmen arbeiten stecken wir jedoch eine Menge Hypothesen etwa durch die Art der Inputs oder der Zielgrößen hinein.

Gruß

Martin

Martin

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

18

Dienstag, 28. Juli 2009, 11:30

Hallo Martin,

ich kann leider nur aus dem Hüftgürtel geschossen zur Software schreiben. Um sie endgültig zu beurteilen muss man unbedingt damit arbeiten. Bei NNs soll ja durch das überwachte Lernen und Gradientenabstieg (Backprop) einen Verlaufsform so "gelernt" werden damit die Prognose gegen Ausreisser einigermaßen standfest bleibt. Das tut es auch vorausgesetzt man hat die entsprechenden Inputs dementsprechend serviert! Es gibt schon NNs die nicht auf Linearität ansprechen,nehmen wir als Beispiel Intermarkets Hier besteht die Ableitung aus der Form unterschiedlichster Parameter der Basiswerte wobei nicht lineare Zusammenhänge aufgedeckt werden sollen. Ein Übermaß an lineare Zusammenhänge wird das NN auswendig lernen und somit ist es unbrauchbar.

Ich glaube Dir gerne das sehr viel Arbeit im Tool steckt was schon allein die geschriebenen Konzepte und Überlegungen wiederspiegeln. Also nichts für Ungut wenn ich "meine Hypothesen" zu einer Software schreibe die ich nicht kenne. Es handelt sich nur um "Schätzwerte",deshalb schreibe ich auch schon ganz ganz vorsichtig! :) Freut mich natürlich wenn Du Dich bereit erklärst,die Vorgehensweise näher zu erläutern und auf Fehleinschätzungen von meiner Seite hinweist! 100% Trefferquote ist sehr schwierig es sei denn man findet mathematisch die kontrollierten Handelsdekaden in einer Zeitreihe und kann sie von den Chaoswolken abfiltern.An stabilen Suppot-Resistance-Linien die oftmals getestet wurden ist die Wahrscheinlichkeit der Chaoswolke beispielsweise relativ hoch.
Happy Trading

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

19

Dienstag, 28. Juli 2009, 12:08

Hallo,

Zitat


Du handelst 2 Systeme,das NN und ein konventionelles System. Wir machen beide 10 Trades. Am Anfang setzen wir beide das NN ein und verlieren die ersten 5 Trades. Ich bleibe beim NN und Du switcht auf das konventionelle System das ebenfalls eine TQ 50% hat. Die folgenden 5 Trades gewinnt das NN aber das konventionelle verliert die ersten 5 Trades und gewinnt danach 5 Trades.


Vielleicht kommt man der Lösung einen kleinen Schritt näher, wenn man anstatt nur NN-Signal oder nur konventionelles Signal, diese beiden AND-verknüpft. Vor vielen Jahren hat AK mal einen sehr schönen Beitrag zu NN's im Trader veröffentlicht, wo das NN-Signal mit MOM verknüpft wurde.
Oder der Ansatz von Reiner, der zwei NN-Signalgeber in der Enter-Regel AND und in der Exit-Regel mit OR verknüpft hat.

Allerdings sind beide Ansätze nicht die ultimativen Lösungen, d.h. die KK kann trotzdem schlagartik wegbrechen (aber im allgemeinen nicht so heftig, wie ein SingleNN), mal ganz am Anfang, dann nach ein paar Perioden und in seltenen Fällen läuft die KK noch eine ganze Weile ganz gut weiter. Das Problem liegt darin im voraus zu "erahnen", welches HS zu der letzten, guten Kategorie gehört und nur dieses zu handeln.

Ein "erahnen", d.h. eine intuitive HS-Selektion anhand des Verlaufes der bisherigen KK und von HS-Kennzahlen ist zu wenig, man benötigt einen exakten Bewertungsberechnungsalgorithmus, der gute & reproduzierbare Ergebnisse liefert und auch wiederum nicht zu kompliziert ist, so dass man ihn mit Investox-StandardBordmitteln umsetzen kann.

Viele Grüße
Torsten

Registrierungsdatum: 29. Dezember 2007

Beiträge: 297

Wohnort: Bad Homburg

20

Dienstag, 28. Juli 2009, 15:21

Hallo,

ich hätte eine Idee, wie man die Stabilität eines NN messen könnte.
Allerdings habe ich sie selber noch nicht ausprobiert...

Mir ist - bei eigenen Tests mit NNs - aufgefallen, dass diese bevor sie plötzlich versagen, vorher schon keine optimalen Tradingverläufe prodozieren auch wenn sie noch funktionieren.

Stridsmann hat in seinem Buch "Handelssysteme die wirklich funktionieren" ebenfalls solche Untersuchungen gemacht um die Stopeinstellungen zu überprüfen.

Mit einem zeitlichen Verlauf der eingegangenen Position, ob und wie weit sie vor einem Gewinn ins Minus läuft könnte man möglicherweise eine Aussage treffen.
Wenn man diesen Wert dann noch mit der Tagesvola normalisiert sollte eine Aussage möglich sein.
Grüße,

Christian