Hallo Udo,
vielen Dank für die ausführliche Antwort. Ich habs mir schon fast gedacht, daß es nicht nur an der zufälligen Gewichtung hängt, wenn immer unterschiedliche Trainingsergebnisse herauskommen. Einerseits ist es damit natürlich schwierig Inputs auszutesten, die gut generalisieren, andererseits ist man auf der sichereren Seite, wenn man Inputs gefunden hat, deren Generalisierungsfähigkeit von keiner NN-Generation verdorben werden kann.
Eine weitere Herausforderung besteht in einem vernünftigen RM: Wie groß ist die Chance, daß eine gewählte Generation stabil weiterläuft? Selbst wenn man den Aufwand auf sich nimmt und nur 100 Testläufe macht, sind es immer noch zu wenig, um aussagekräftige Zahlen zu bekommen. Hier würde ein Feed-Forward-Test gekoppelt mit einem passenden Trainigsverfahren wirklich jede Menge Erleichterung mit sich bringen.
Viele Grüße