Optimierung Von Handelssystemen Und Portfolios


Von Amir F. Atiya, Alexander G. Parlos - IEEE TRANS. NEURONALE NETZE. 2000. Der effiziente Aufbau regenerativer Netzwerke bleibt ein anspruchsvolles und aktives Forschungsthema. Die meisten der vorgeschlagenen Trainingsansätze basieren auf rechnerischen Wegen, den Gradienten der Fehlerfunktion effizient zu erhalten und können allgemein in fünf Hauptgruppen gruppiert werden. In dieser Studie präsentieren wir. Der effiziente Aufbau regenerativer Netzwerke bleibt ein anspruchsvolles und aktives Forschungsthema. Die meisten der vorgeschlagenen Trainingsansätze basieren auf rechnerischen Wegen, den Gradienten der Fehlerfunktion effizient zu erhalten und können allgemein in fünf Hauptgruppen gruppiert werden. In dieser Studie stellen wir eine Ableitung vor, die diese Ansätze vereint. Wir zeigen, dass die Ansätze nur fünf verschiedene Arten der Lösung einer bestimmten Matrixgleichung sind. Das zweite Ziel dieser Arbeit ist die Entwicklung eines neuen Algorithmus auf der Grundlage der Erkenntnisse aus der neuen Formulierung. Der neue Algorithmus, der auf der Annäherung des Fehlergradienten beruht, hat eine geringere rechnerische Komplexität bei der Berechnung der Gewichtsaktualisierung als die konkurrierenden Techniken für die meisten typischen Probleme. Zusätzlich erreicht es das Fehlerminimum bei einer viel kleineren Anzahl von Iterationen. Eine wünschenswerte Eigenschaft von wiederkehrenden Netzwerktrainingsalgorithmen besteht darin, die Gewichte in einer Online-Mode aktualisieren zu können. Wir haben auch eine Online-Version des vorgeschlagenen Algorithmus entwickelt, der darauf basiert, die Fehlergradienten-Approximation rekursiv zu aktualisieren. Von Thomas Hellstrm, Kenneth Holmstrm. 1999. Dieses Papier beschreibt ASTA, eine Artificial Stock Trading Agent, in der Matlab-Programmierumgebung. Der Hauptzweck des Projekts besteht darin, einen stabilen und realistischen Prüfstand für die Entwicklung von Algorithmen mit mehreren Börsen zu liefern. Das Verhalten des Agenten wird von einem hohen Niveau langua gesteuert. Dieses Papier beschreibt ASTA, eine Artificial Stock Trading Agent, in der Matlab-Programmierumgebung. Der Hauptzweck des Projekts besteht darin, einen stabilen und realistischen Prüfstand für die Entwicklung von Algorithmen mit mehreren Börsen zu liefern. Das Verhalten des Agenten wird durch eine hochrangige Sprache gesteuert, die mit benutzerdefinierten Funktionen leicht erweitert werden kann. Die Kauf - und Verkaufsregeln können interaktiv zusammengestellt werden, und verschiedene Arten von Daten-Screening lassen sich problemlos innerhalb der Matlab m-File-Sprachsyntax durchführen. Abgesehen von Haizhon Li, Robert Kozma - Proceedings of the 2003 International Joint Conference on Neural Networks. 2003. Zusammenfassung In diesem Papier wird das KIII dynamische neuronale Netzwerk eingeführt und es wird auf die Vorhersage komplexer zeitlicher Sequenzen angewendet. In unserem Ansatz, KIII gibt eine schrittweise Vorhersage der Richtung der Wechselkursänderung. Zuvor wurden verschiedene Multiplayer Perceptron (MLP) net. Zusammenfassung In diesem Papier wird das KIII dynamische neuronale Netzwerk eingeführt und es wird auf die Vorhersage komplexer zeitlicher Sequenzen angewendet. In unserem Ansatz, KIII gibt eine schrittweise Vorhersage der Richtung der Wechselkursänderung. Bisher wurden verschiedene Multiplayer Perceptron (MLP) Netzwerke und wiederkehrende neuronale Netze für diese Anwendung erfolgreich implementiert. Die durch KIII erhaltenen Ergebnisse vergleichen sich günstig mit anderen Methoden. Angesichts des hohen Rauschpegels und des nichtstationären Charakters der Daten ist die Finanzprognose eine herausfordernde Anwendung im Zeitreihenvorhersagebereich. In dieser Patentanmeldung werden verschiedene Verfahren verwendet -5,5,6,7,9,10-. In dieser Arbeit verwenden wir das KIII-Modell, um die Ein-Schritt-Richtung des täglichen Wechselkurses vorherzusagen. Die Daten, die wir verwendeten, sind von 4. Die Versuchsergebnisse zeigen die Klassifizierungskapazität des KI. Von Nicolas Chapados, Yoshua Bengio - IEEE-Transaktionen über Neuronale Netze. 2000. Wir stellen ein Asset-Allocation-Framework vor, das auf der aktiven Steuerung des Value-at-Risk des Portfolios basiert. In diesem Rahmen vergleichen wir zwei Paradigmen für die Zuteilung mit neuronalen Netzen. Der erste nutzt das Netzwerk, um eine Prognose des Assetverhaltens in Verbindung mit einem. Auf der Grundlage der aktiven Steuerung des Value-at-Risk des Portfolios stellen wir ein Asset-Allocation-Framework vor. In diesem Rahmen vergleichen wir zwei Paradigmen für die Zuteilung mit neuronalen Netzen. Der erste nutzt das Netzwerk, um eine Prognose des Assetverhaltens in Verbindung mit einem traditionellen Mittelwertvarianz-Allokator für den Aufbau des Portfolios vorzunehmen. Das zweite Paradigma nutzt das Netzwerk, um direkt die Portfolio-Allokation zu treffen. Wir betrachten eine Methode zur Durchführung einer variablen Selektion mit variabler Eingabe und zeigen deren beträchtlichen Nutzen. Wir verwenden Modellkombinationsmethoden, um die Wahl der Hyperparameter während des Trainings zu systematisieren. Wir zeigen, dass Ausschüsse, die beide Paradigmen verwenden, die Benchmark-Marktperformance deutlich übertreffen. 1. Einleitung In Finanzanwendungen hat die Idee, Lernalgorithmen nach dem Kriterium des Interesses (wie Profit) anstatt eines allgemeinen Prädiktionskriteriums zu trainieren, in den letzten Jahren Interesse geweckt. I. Kriterium, hat in den letzten Jahren Interesse gewonnen. In Asset-Allocation-Aufgaben wurde dies auf die Ausbildung neuronaler Netze zur direkten Maximierung eines Sharpe Ratio oder anderer risikoadjustierter Profitmaßnahmen angewandt.1,3,10-. Eine solche Risikomessung, die vor kurzem erhebliche Aufmerksamkeit erlangt hat, ist der Value-at-Risk (VaR) des Portfolios, der die maximale Höhe (in der Regel z. Von John Moody, Yufeng Liu, Matthew Saffell, Kyoungju Youn - In Proceedings of Künstliche Multiagent Learning. Papiere aus dem Jahr 2004 AAAI Fall Symposium. 2004. Wir untersuchen wiederholte Matrix-Spiele mit stochastischen Spielern als Mikrokosmos für das Studium dynamischer, Multi-Agent-Interaktionen mit dem Stochastic Direct Reinforcement (SDR) Policy-Gradienten-Algorithmus. SDR ist eine Generalisierung von Recurrent Reinforcement Learning (RRL), die stochastische Richtlinien unterstützt. U. Wir untersuchen wiederholte Matrix-Spiele mit stochastischen Spielern als Mikrokosmos für das Studium dynamischer, Multi-Agent-Interaktionen mit dem Stochastic Direct Reinforcement (SDR) Policy-Gradienten-Algorithmus. SDR ist eine Generalisierung von Recurrent Reinforcement Learning (RRL), die stochastische Richtlinien unterstützt. Im Gegensatz zu anderen RL-Algorithmen verwenden SDR und RRL wiederkehrende Richtliniengradienten, um die zeitliche Kreditzuweisung, die aus der wiederkehrenden Struktur resultiert, richtig zu adressieren. Unsere Hauptziele in dieser Arbeit sind: (1) den rekurrenten Speicher von dem standardmäßigen, nicht wiederkehrenden Speicher für den Polgradient RL zu unterscheiden, (2) den SDR mit Q-artigen Lernmethoden für einfache Spiele zu vergleichen, (3) reaktive von endogenem dynamischem Mittel zu unterscheiden Verhalten und (4) erkunden die Verwendung von wiederkehrenden Lernen für interagierende, dynamische Agenten. Wir finden, dass SDR-Spieler lernen, viel schneller und damit übertreffen kürzlich vorgeschlagenen Q-type Lernenden für das einfache Spiel Rock, Paper, Scissors (RPS). Mit mehr komplexen, dynamischen SDR-Spielern und Gegnern, zeigen wir, dass wiederkehrende Darstellungen und SZR wiederkehrende politische Gradienten eine bessere Leistung erzielen als nicht wiederkehrende Spieler. Für das Iterated Prisoners Dilemma zeigen wir, dass nicht-rezidivierende SDR-Agenten nur zum Defekt gelangen (Nash-Gleichgewicht), während SDR-Agenten mit rezidivierenden Gradienten eine Vielzahl von interessanten Verhaltensweisen einschließlich der Kooperation erlernen können. 1 ealing, kann Q-Learning nicht leicht auf die großen Zustands - oder Handlungsräume skaliert werden, die in der Praxis häufig auftreten. (Moody et al., 1998) (Baxter amp Bartlett 2001) (Ng amp Jordan 2000) stellen politische Maßnahmen explizit dar und tun dies Dass eine Wertfunktion nicht erlernt werden muss. Richtliniengradientenmethoden versuchen, die Politik durch zu verbessern. Von John Moody, Matthew Saffell - In KDD. 1998. Wir schlagen vor, Handelssysteme durch die Optimierung finanzieller Zielfunktionen durch verstärkendes Lernen zu schulen. Die Performance-Funktionen, die wir als Wert-Funktionen betrachten, sind Gewinn oder Reichtum, die Sharpe-Ratio und unsere kürzlich vorgeschlagene differentielle Sharpe Ratio für Online-Lernen. In Moody amp W. Wir schlagen vor, Handelssysteme zu schulen, indem wir finanzielle Zielfunktionen durch Verstärkung lernen. Die Performance-Funktionen, die wir als Wert-Funktionen betrachten, sind Gewinn oder Reichtum, die Sharpe-Ratio und unsere kürzlich vorgeschlagene differentielle Sharpe Ratio für Online-Lernen. In Moody ampamp Wu (1997) präsentierten wir empirische Ergebnisse in kontrollierten Experimenten, die die Vorteile des Verstärkungslernens gegenüber dem beaufsichtigten Lernen demonstrierten. Hier erweitern wir unsere bisherige Arbeit um Q-Learning mit einer Bewehrungslerntechnik zu vergleichen, die auf Echtzeit-Recurring Learning (RTRL) basiert, die sofortige Belohnung maximiert. Unsere Simulationsergebnisse umfassen eine spektakuläre Demonstration der Anwesenheit von Vorhersagbarkeit im Monatsbericht von N. Towers, A. N. Burgess - Computational finance. Englisch: www. tab. fzk. de/en/projekt/zusammenf...ng/ab117.htm In dieser Arbeit werden unter Verwendung parametrisierter Entscheidungsregeln Trading - Strategien für die Modellierung von Asset - Preisprognosemodellen implementiert, wobei wir ein synthetisches Handelsumfeld entwickeln, um die relativen Auswirkungen der Modifikation auf die Rentabilität zu untersuchen Das Prognosemodell und die Entscheidungsregel. Wir zeigen, dass imp. In diesem Papier implementieren wir Trading-Strategien für Asset-Preisprognose Modelle mit parametrisierten Entscheidungsregeln. Wir entwickeln ein synthetisches Handelsumfeld zu untersuchen, die relative Auswirkungen, in Bezug auf die Rentabilität, Vorhersagemodell und der Entscheidungsregel dar. Wir zeigen, dass die Implementierung der Handelsregel für die Trading-Performance ebenso wichtig sein kann wie die prädiktive Fähigkeit des Prognosemodells. Wir wenden diese Techniken auf ein Beispiel eines Prognosemodells an, das aus einem intraday-ampquotstatistischen Fehlpricingampquot generiert wird Einer Kombination von Aktienindizes dar. Die Ergebnisse zeigen, dass die Optimierung der Entscheidungsregeln die Handelsleistung signifikant verbessern kann, wobei die annualisierte Sharpe Ratio bis zu einem Faktor zwei über eine Nave-Handelsregel zunimmt. Um dieses Leistungsniveau durch das Prognosemodell alleine zu erreichen, wäre eine Verbesserung der Vorhersagegenauigkeit erforderlich. 1 Einleitung In den letzten Jahren ist ein erheblicher Forschungsaufwand geplant worden. Lung des Prognosemodells und dann zweitens eine Entscheidungsphase, die die Prognoseinformationen in eine Aktion umsetzt, die in diesem Fall die Handelsposition ändert. Als Alternative sind Moody in -3- und Choey amp Weigend in 4 Beispiele für Methoden, die diese beiden Stufen zu einer kombinieren. Diese Handelsstrategien verwenden ein einzelnes Modell, um eine gemeinsame Optimierung sowohl über die Prognose durchzuführen. Von Thomas Hellstrm. 1998. Dieses Papier beschreibt die Prinzipien hinter und die Umsetzung von ASTA, eine Artificial Stock Trading Agent in der Matlab Sprache geschrieben. Der primäre Zweck des Projekts ist es, eine einfach zu bedienende Umgebung für die Entwicklung von Multi-Aktienhandel Algorithmen bieten. Dieses Papier beschreibt die Prinzipien hinter und die Umsetzung von ASTA, eine Artificial Stock Trading Agent in der Matlab Sprache geschrieben. Der primäre Zweck des Projektes ist es, eine einfach zu bedienende Umgebung für die Entwicklung von Multi-Aktienhandel Algorithmen bieten. Von N. Towers, A. N. Burgess. 1998. Im Rahmen einer dynamischen Handelsstrategie ist es das Ziel eines Prognosemodells, Maßnahmen zu wählen, die zur Optimierung des Handelsziels führen. In dieser Arbeit entwickeln wir eine Methodik zur Optimierung einer Zielfunktion mit einer parametrisierten Entscheidungsregel für ein Geben. Im Rahmen einer dynamischen Handelsstrategie ist es das Ziel eines Prognosemodells, Maßnahmen zu wählen, die zur Optimierung des Handelsziels führen. In diesem Beitrag wird eine Methodik zur Optimierung einer Zielfunktion mit einer parametrisierten Entscheidungsregel für ein gegebenes Prognosemodell entwickelt. Wir simulieren die erwartete Handelsperformance für unterschiedliche Entscheidungsparameter und Ebenen der Prädiktionsgenauigkeit. Anschließend wenden wir die Technik auf ein Prognosemodell von Fehlentscheidungen innerhalb einer Gruppe von Aktienindizes an. Wir zeigen, dass die Optimierung der vorgeschlagenen Entscheidungsregel die annualisierte Sharpe Ratio um einen Faktor von 1,7 über eine naive Entscheidungsregel erhöhen kann. Von Kai Chun Chiu, Lei Xu - in J. R. Dorronsoro (Hrsg.): Künstliche neuronale Netze - ICANN2002, LNCS 2415. 2002. Abstrakt. Adaptives Portfolio Management wurde in der Literatur über neuronale Netze und das maschinelle Lernen untersucht. Das vor kurzem entwickelte Modell der temporalen Faktoranalyse (TFA), das vor allem auf die weitere Untersuchung der Arbitrage-Pricing Theory (APT) ausgerichtet ist, hat potenzielle Anwendungen im Portfolio Man. Abstrakt. Adaptives Portfolio Management wurde in der Literatur über neuronale Netze und das maschinelle Lernen untersucht. Das kürzlich entwickelte Modell der temporalen Faktoranalyse (TFA), das vor allem auf die weitere Untersuchung der Arbitrage Pricing Theory (APT) ausgerichtet ist, hat potenzielle Anwendungen im Portfolio Management. In diesem Beitrag wollen wir die Überlegenheit des APT-basierten Portfoliomanagements über das renditeorientierte Portfoliomanagement verdeutlichen. 1 e traditionelle Markowitzs-Portfoliotheorie 8 im Kontext künstlicher neuronaler Netze. In der Literatur wurde das adaptive Portfolio-Management durch Maximierung des bekannten Sharpe-Verhältnisses 4 in -1, 2-- untersucht. Solche Ansätze behandeln die Gewichte jedoch entweder als Konstanten oder hängen direkt von den Sicherheitsrenditen ab. Vor kurzem wurde eine neue Technik mit dem Namen "Temporal Factor Analysis" (TFA) von 5 vorgeschlagen, mit der Optimierung von Handelssystemen und Portfolios. Die Forschungsthemen tendierten dazu, sich auf die Handelssysteme oder Portfoliokonstruktionsmethoden oder Multiagentensysteme zu konzentrieren (Smeureanu et al ) Getrennt. Einige haben optimierte Trading-System-Portfolios (Moodyand, Lizhong 1997), (Dempster, Jones 2001), aber nur sehr wenige haben große Handelssystem-Portfolio-Optimierungsprobleme behandelt (Perold 1984). Multi-Agenten-Systeme werden selten im Handel verwendet, obwohl gelegentliche Beispiele gefunden werden können (Arajo, de Castro 2011). Abstract Zusammenfassung Abstraktes ABSTRAKT: Zum Verständnis umfangreicher Portfolio-Bauaufgaben analysieren wir nachhaltige Wirtschaftsprobleme, indem wir große Aufgaben in kleinere aufteilen und einen evolutionären feed-forward systembasierten Ansatz anbieten. Die theoretische Begründung unserer Lösung basiert auf einer multivariaten statistischen Analyse multidimensionaler Investitionsaufgaben, insbesondere auf die Beziehungen zwischen Datengröße, Algorithmuskomplexität und Portfolioeffizienz. Um das Dimensionsabweichungsproblem zu reduzieren, wird eine größere Aufgabe durch Element-Ähnlichkeits-Clustering in kleinere Teile aufgeteilt. Ähnliche Probleme werden kleineren Gruppen zu lösen gegeben. Gruppen unterscheiden sich jedoch in vielen Aspekten. Pseudo-randomisierte Gruppen bilden eine große Anzahl von Modulen von Entscheidungssystemen zur Entscheidungsfindung. Der Evolution Mechanismus bildet Sammlungen der besten Module für jede einzelne kurze Zeitperiode. Endgültige Lösungen werden auf globaler Ebene vorgestellt, wo eine Auswahl der besten Module unter Verwendung eines kostensensiblen Multiclass-Perceptrons ausgewählt wird. Gesammelte Module werden in einer endgültigen Lösung in gleichem Gewicht zusammengefasst (1N Portfolio). Die Wirksamkeit des neuartigen Entscheidungsansatzes wurde durch ein Finanzportfolio-Optimierungsproblem demonstriert, das ausreichende Mengen an realen Daten lieferte. Für den Portfolio-Bau verwendeten wir 11.730 simulierte Handelsroboter-Performances. Der Datensatz umfasste den Zeitraum von 2003 bis 2012, als die Umweltzustände häufig und weitgehend unvorhersehbar waren. Walk-Forward - und Out-of-Sample-Experimente zeigen, dass ein Ansatz, der auf nachhaltigen Wirt - schaftsprinzipien basiert, die Benchmark-Methoden übertrifft und dass eine kürzere Agenten-Trainingsgeschichte bessere Ergebnisse in Zeiten eines sich wandelnden Umfelds zeigt. Vollständiger Artikel Jan 2014 Raudys Aistis Raudys Pabarkait-Quotum L Xu, (2003) Optimierung der Finanzportfolios aus der Perspektive der Bergbau-Zeitstrukturen der Aktienrendite in P. Perner und A. Rosenfeld, Hrsg. Maschinelles Lernen und Data Mining in der Mustererkennung - MLDMx272003, S. 266-275, LNAI 2734, Springer Verlag. Genau wie andere grundsätzliche Probleme in der Finanzanalyse war das optimale Portfolioauswahlproblem dem Angriff der Forscher aus den Disziplinen der künstlichen neuronalen Netze und dem maschinellen Lernen widerstandsfähig3456. Die Anwendung des neuronalen Netzwerkansatzes erfordert, dass optimale Parameter über die Zeit adaptiv erlernt werden. Zusammenfassung Zusammenfassung In diesem Beitrag wollen wir vorstellen, wie eine der kürzlich entwickelten statistischen Lerntechniken, die zeitliche Faktoranalyse (TFA), die ursprünglich für die weitere Untersuchung der Arbitrage-Preistheorie (APT) , Könnten im Finanzdatenabbau genutzt werden, um die Gewichte im Portfoliooptimierungsproblem zu bestimmen Darüber hinaus untersuchen wir mehrere Varianten der APT - basierten Sharpe - Verhältnis - Maximierungstechnik, die die Konzepte des Portfolio - Abwärtsrisikos und der auf die Risikobereitschaft zugeschnittenen Upside - Abgesehen von aggressiven, gewinnorientierten Investoren Volltext-Konferenzpapier Jul 2003 Kai Chun Chiu Lei Xu Die lineare Regression der Haltedauer auf die MS-Quote auf allen Märkten ergab einen Korrelationskoeffizienten von -.48. Dies ist im Einklang mit den Ergebnissen in 1 und 4, die zeigten, dass RRL Ausbildung Trader an höhere Transaktionskosten durch Verringerung der Handelsfrequenz angepasst. Im Falle des Devisenhandels bedeutet ein niedrigerer MS-Quotient, dass der Spread ein relativ höherer äquivalenter Transaktionsaufwand ist, und wir sollten erwarten, dass die Handelsfrequenz reduziert wird. Zusammenfassung Diese Zusammenfassung untersucht hochfrequenten Devisenhandel mit neuronalen Netzwerken, die über das rezidivierende Verstärkungslernen (RRL) trainiert werden. Wir vergleichen die Leistung einzelner Netzwerke mit Netzwerken mit einer verborgenen Schicht und untersuchen die Auswirkungen der festen Systemparameter auf die Performance. Im Allgemeinen gehen wir davon aus, dass die Handelssysteme zwar effektiv sein können, die Performance jedoch für verschiedene Devisenmärkte stark variiert und diese Variabilität nicht durch einfache Statistiken der Märkte erklärt werden kann. Auch finden wir, dass das einschichtige Netzwerk das Zwei-Layer-Netzwerk in dieser Anwendung übertrifft. Conference Paper Apr 2003 Technologische und wirtschaftliche Entwicklung der Wirtschaft C. Goldby John Moody, Matthew Saffell. 2001. Wir stellen Methoden zur Optimierung von Portfolios, Asset Allocations und Trading-Systemen basierend auf direkter Verstärkung (DR) vor. Bei diesem Ansatz werden Investitionsentscheidungen als stochastisches Kontrollproblem betrachtet, und Strategien werden direkt entdeckt. Wir präsentieren einen adaptiven Algorithmus namens recurrent r. Wir stellen Methoden zur Optimierung von Portfolios, Asset Allocations und Trading-Systemen basierend auf direkter Verstärkung (DR) vor. Bei diesem Ansatz werden Investitionsentscheidungen als stochastisches Kontrollproblem betrachtet, und Strategien werden direkt entdeckt. Wir präsentieren einen adaptiven Algorithmus namens rekursives Verstärkung Lernen (RRL) für die Entdeckung der Investitionspolitik. Die Notwendigkeit, Prognosemodelle zu erstellen, wird eliminiert und eine bessere Handelsleistung erzielt. Der direkte Verstärkungsansatz unterscheidet sich von dynamischen Programmierungs - und Verstärkungsalgorithmen wie TD-Learning und Q-Learning, die versuchen, eine Wertfunktion für das Kontrollproblem zu schätzen. Das RRL direkte Verstärkungsgerüst ermöglicht eine einfachere Problemdarstellung, vermeidet den Fluch der Dimensionalität von Bellmanampaposs und bietet überzeugende Effizienzvorteile. Wir zeigen, wie die direkte Verstärkung genutzt werden kann, um risikoadjustierte Renditen (einschließlich des Sharpe-Differentials) zu optimieren und dabei die Auswirkungen der Transaktionskosten zu berücksichtigen. In umfangreichen Simulationen mit echten Finanzdaten finden wir, dass unser Ansatz auf der Grundlage von RRL bessere Handelsstrategien als Systeme mit Q-Learning (eine Wertfunktion Methode) erzeugt. Zu den Anwendungen in der Realität gehören ein intra-täg - licher Devisenhandel und ein monatliches Asset Allocation System für den SampampP 500 Aktienindex und T-Bills. Von Blake Lebaron. 1998. Dieses Papier kombiniert Techniken aus der Literatur zu evolutionären Optimierungsalgorithmen zusammen mit bootstrap-basierten statistischen Tests. Bootstrapping und Kreuzvalidierung werden als allgemeiner Rahmen für die Schätzung von Zielen aus der Stichprobe verwendet, indem Subtraktionen aus einem Trainingsmuster neu gezeichnet werden. Evolu Dieses Papier kombiniert Techniken aus der Literatur zu evolutionären Optimierungsalgorithmen zusammen mit bootstrap-basierten statistischen Tests. Bootstrapping und Kreuzvalidierung werden als allgemeiner Rahmen für die Schätzung von Zielen aus der Stichprobe verwendet, indem Subtraktionen aus einem Trainingsmuster neu gezeichnet werden. Evolution wird verwendet, um den großen Raum potenzieller Netzwerkarchitekturen zu durchsuchen. Die Kombination dieser beiden Verfahren schafft ein Netzwerkschätz - und Auswahlverfahren, das darauf abzielt, sparsame Netzstrukturen zu finden, die gut verallgemeinern. Beispiele hierfür sind Finanzdaten, die zeigen, wie dies im Vergleich zu herkömmlichen Methoden der Modellauswahl steht. Die Bootstrap-Methode erlaubt auch allgemeinere Zielfunktionen als die üblichen kleinsten Fehlerquadrate, da sie die In-Probe-Bias für jede Funktion einschätzen kann. Einige von ihnen werden mit den traditionellen Schätzungen der kleinsten Quadrate im dynamischen Handel mit Währungsreihen verglichen. 1 1 shirani 1994). 3 Frühe Ergebnisse zeigen, dass sie ein effektives Werkzeug in simulierten Zeitreihenprognosen nach Henon-Daten darstellen (LeBaron 1997). 4 Die jüngsten Arbeiten von (Bengio 1997), (Choey amp Weigend 1997) und (-Moody amp Wu 1997-) sind hier eindeutig inspirierend. Andere neuere Beispiele zur Betrachtung der Bedeutung anderer Verlustfunktionen finden sich in (Granger amp Pesaran 1996). 1strategy zum Zeitpunkt t 1 wäre strt1, (1) wobei.

Comments