Sunday 29 October 2017

Bewegliches Neural Netzwerk


Neuronales Netz 2 Gleitender Durchschnitt Ein neuronales Netzwerk Expert Advisor basiert auf zwei gleitenden Mittelwerten mit dem Trainingsmodus. Trainieren Sie die Expert Advisor auf ausgewählte Beispiele und machen Sie einen Gewinn im wirklichen Leben. Die EA kann an jedem Instrument und in jedem Zeitrahmen arbeiten. Trading-Algorithmus der EA Zwei gleitende Durchschnitte werden durch den neuronalen Netzwerkkern analysiert, der Befehle zum Kauf oder Verkauf erzeugt. Werden die Werte von zwei Bewegungsdurchschnitten, schnell (FMA) und langsam (SMA), der ersten Schicht zugeführt, auf der zweiten Ebene berechnet sie zwei Neuronen, die für Buy (N Buy) und Sell (N sell) verantwortlich sind Oder Verkauf erfolgt auf der dritten Ebene. Das Blockschaltbild des neuronalen Netzes ist in der Figur gezeigt. Expert Advisor Training Im Trainingsmodus erinnert sich die EA an die Werte der durch den Benutzer markierten gleitenden Durchschnittswerte auf dem Chart des Währungsinstruments. Künftig erkennt es im Normalbetrieb die Werte der gleitenden Mittelwerte. Um die EA-Marke mindestens ein langes und ein kurzes Geschäft auf dem Diagramm zu trainieren. Um einen langen Handel mit dem Kaufen Pfeil anzuzeigen, und für den kurzen Handel verwenden Sie den Verkaufspfeil. Sie können weitere Pfeile auf dem Diagramm platzieren. Je mehr Pfeile, desto länger wird der Prozess der Ausbildung. Das Vorhandensein anderer Objekte auf dem Diagramm außer den Pfeilen ist nicht wünschenswert. Nach dem Training wird der Ordner NN 2MA im gemeinsamen Ordner des Terminals angelegt. Es enthält Datei HHHHHHNN2MA. bin mit den Einstellungen des trainierten neuronalen Netzwerks. XXXXXX im Dateinamen ist der Name des Finanzinstruments. Im Normalbetrieb lädt die EA die Daten aus der Datei. Wenn die Datei nicht gefunden wird, verwendet sie die Standardeinstellungen. Standardmäßig wird der EA bei USDJPY und einem einstündigen Zeitrahmen geschult, die Trades werden 2012 ausgewählt. Für das EA-Training sind folgende Eingabeparameter verantwortlich: Die Anzahl der Gewichte pro Neuron. Entspricht der Länge des MA. Standard - 48. Die Anzahl der Trainingszyklen - Standard 100. Je höher der Wert, desto länger wird der Trainingsprozess sein. In der Testversion ist es 10. Faktor b - der Wert beeinflusst die Geschwindigkeit der Korrektur von Gewichten von Neuronen, wird für die Ausbildung des Netzwerks verwendet. Der Standardwert ist 0,7, muss nicht geändert werden. Lernmodus EA - ermöglicht den Trainingsmodus des EA. Beispiele für das Spezifizieren von Trades zum Trainieren des EA sind in der Figur verfügbar. Die Einstellungen für den Normalmodus Einstellungen für Gleitende Mittelwerte Sie können die Einstellungen für jeden gleitenden Durchschnitt einstellen: den Zeitraum, den Preis, den Berechnungsmodus. Auftragsvolumen - Voreinstellung ist 0,1. Wert von Schlupf in Punkten - Standardwert ist 30. Anzahl der Versuche, eine Position zu öffnen - Standardwert ist 5. Stufe StopLoss in Punkten - Standard ist 0. Level TakeProfit in Punkten - Standard ist 0. Level TrailingStop in Punkten - Standardwert ist 650. Zulassen Geld-Management - Kontrolle der Auftragsgröße, um den Markt zu betreten, aktiviert durch defalt. Wenn der Modus deaktiviert ist, wird die Auftragsgröße aus dem Parameter "Auftragsvolumen" übernommen. Das Volumen der Aufträge als Prozentsatz der Ablagerung - verwendet, um die Auftragsgröße zu kontrollieren, Verzug ist 5 Prozent. Hinzufügen in die geöffnete Position - standardmäßig aktiviert. Wenn es ein Signal gibt, den Markt in Richtung einer offenen Position zu betreten, tritt die EA in den Markt ein. Einstellungen des Neuronalen Netzes Die Anzahl der Gewichte pro Neuron. Entspricht der Länge des MA. Je höher der Wert, desto genauer wird der aktuelle Marktzustand erkannt, reduziert aber die Anzahl der Trades. Je niedriger der Wert, desto weniger genau wird der aktuelle Marktzustand erkannt, aber die Anzahl der Geschäfte steigt. Der Wert der Neuronaktivierung. Der Wert beträgt etwa 0,75 des Wertes Die Anzahl der Gewichte pro Neuron. Je höher der Wert, desto strenger ist die Auswahl von Neuronen für eine Entscheidung. In der Testversion ist es 40. Die Anzahl der Trainingszyklen - Voreinstellung ist 100. Faktor b die Gewichtskorrekturgeschwindigkeit, Voreinstellung ist 0.7. Lernmodus EA der EA-Trainingsmodus. Während des Trainings werden die Maximalwerte der Neuronen in den Kommentaren auf der Tabelle angezeigt. Diese Werte können als Aktivierungswert des Neurons verwendet werden. Ein Beispiel ist in der Figur gezeigt. Kommentare aktivieren - ermöglicht Kommentare auf dem Diagramm. Magie Anzahl der Berater. Pause nach dem Handel in Millisekunden. Standardmäßig wird das EA auf USDJPY H1 auf zwei Trades im Jahr 2012 trainiert. Das Ergebnis des Expert Advisor Tests im Jahr 2013 ist in der Abbildung gezeigt. Ein künstliches neuronales Netzwerk (p, xA0 d, xA0 q) Modell für Zeitvorhersagen, die Abstract Artificial prognostizieren Neuronale Netze (ANNs) sind flexible Computing-Frameworks und universelle Approximatoren, die auf ein breites Spektrum von Zeitreihenprognoseproblemen mit hoher Genauigkeit angewendet werden können. Trotz aller Vorteile, die für künstliche neuronale Netze genannt werden, ist ihre Leistung für einige Echtzeitreihen nicht zufriedenstellend. Die Verbesserung der Prognose vor allem der Zeitreihen-Prognosegenauigkeit ist eine wichtige, aber oft schwierige Aufgabe für die Prognostiker. Sowohl theoretische als auch empirische Befunde haben gezeigt, dass die Integration verschiedener Modelle eine effektive Möglichkeit zur Verbesserung ihrer prädiktiven Leistung sein kann, insbesondere wenn die Modelle im Ensemble ganz anders sind. In diesem Beitrag wird ein neuartiges Hybridmodell für künstliche neuronale Netze vorgeschlagen, das autoregressive integrierte Moving Average (ARIMA) Modelle verwendet, um ein genaueres Prognosemodell zu liefern als künstliche neuronale Netze. Die empirischen Ergebnisse mit drei bekannten realen Datensätzen deuten darauf hin, dass das vorgeschlagene Modell ein effektiver Weg sein kann, um die Prognosegenauigkeit zu verbessern, die durch künstliche neuronale Netze erreicht wird. Daher kann es als ein geeignetes alternatives Modell für die Prognoseaufgabe verwendet werden, insbesondere wenn eine höhere Prognosegenauigkeit erforderlich ist. Schlüsselwörter Künstliche neuronale Netze (ANNs) Auto-regressiver integrierter gleitender Durchschnitt (ARIMA) Zeitreihenvorhersage Entsprechender Autor. Tel. 98 311 39125501 Fax: 98 311 3915526. Copyright 2009 Elsevier Ltd. Alle Rechte vorbehalten. Cookies werden von dieser Website verwendet. Weitere Informationen finden Sie auf der Cookieseite. Copyright 2016 Elsevier B. V. oder seine Lizenzgeber oder Mitwirkenden. ScienceDirect ist ein eingetragenes Warenzeichen von Elsevier B. V.Neural Netz-Entwicklung für Finanzprognose durch: Lou Mendelsohn Ausführliche Forschung ist über die Anwendung der neuronalen Netze zur Finanzprognose in der heutigen globalisierten Handelsumwelt geleitet worden. Was macht diese besondere Nutzung von künstlicher Intelligenz so attraktiv für Finanzanalysten und Händler Hier, Lou Mendelsohn von Market Technologies hebt einige dieser Fragen und legt Ziele für die Ausbildung neuronaler Netze. Mit den Fortschritten in der Computer-und Telekommunikationstechnologien heute gemacht, die Welten großen Volkswirtschaften und Finanzmärkte werden mehr und mehr globalisiert. Da sich dieser Trend beschleunigt, werden die Finanzmärkte immer mehr miteinander verknüpft und grundlegende Faktoren werden für die Finanzmarktanalyse immer kritischer. Auf dem Weltmarkt verschwindet die vorherrschende Methode der technischen Analyse, in der ein Binnenmarkt durch historische Simulation und Backtesting des eigenen vergangenen Preissverhaltens modelliert wird, rasch seinen Wettbewerbsvorteil, da Institutionen und einzelne Trader sich zunehmend künstlich einsetzen Intelligence (AI) - Technologien bis hin zu Finanzprognosen. Jüngste Untersuchungen zeigen, dass diese nichtlineare Domäne mit diesen Technologien genauer modelliert werden kann als mit den linearen statistischen und Binnenmarktmethoden, die im Laufe des letzten Jahrzehnts das Hauptargument der technischen Analyse waren. Es ist wegen dieser Faktoren, dass das Feld der AI einen näheren Blick verdient. Das Ergebnis dieser neuen Anforderungen ist die Entstehung einer neuen analytischen Methode, die technische und fundamentale Analyse mit der neueren Betonung der Intermarket-Analyse verbindet. Diese kombinierte analytische Methode ist bekannt als synergistische Marktanalyse oder synergistische Analyse. Diese neue Analysemethode, die künstliche Intelligenzwerkzeuge verwendet, synthetisiert technische, intermarketische und fundamentale Daten innerhalb eines analytischen Rahmens, was zu besseren Prognosemöglichkeiten und einer frühzeitigen Identifizierung von Trendveränderungen führt und es den Händlern ermöglicht, von Marktinfizienten auf den globalen Märkten der 1990er Jahre zu profitieren. Solche Werkzeuge wie neuronale Netze, Experten und wissensbasierte Systeme, maschinelles Lernen, Fuzzy-Logik, Wavelets, Chaostheorie und genetische Algorithmen werden branchenübergreifend angewendet. In gleicher Weise können neuronale Netze auf Finanzprognosen angewendet werden, da sich neuronale Netze als technologisch leistungsfähig und flexibel erwiesen haben, ideal geeignet, um eine synergistische Analyse durchzuführen. Künstliche neuronale Netze Künstliche neuronale Netze sind Modelle auf der Grundlage der Arbeit des menschlichen Gehirns, mit einem verteilten Verarbeitung Ansatz zur Berechnung. Neuronale Netze sind in der Lage, ein breites Spektrum von Problemen zu lösen, indem sie ein mathematisches Modell für das Problem lernen: Das Modell kann dann verwendet werden, um Eingangsdaten zu Ausgangsdaten abzubilden. Alles, was als Zahl dargestellt werden kann, kann in ein neuronales Netzwerk eingegeben werden. Technische Indikatoren und Fundamental - und Preisdaten, die sich auf einen einzigen Zielmarkt beziehen, sowie Intermarket-Daten, die den Zielmarkt betreffen, können alle in ein einzelnes Neuronetz eingespeist und zur Vorhersage von Preis - und Trendrichtungen für den Zielmarkt verwendet werden. Künstliche neuronale Netze bestehen aus einzelnen miteinander verbundenen Verarbeitungselementen (PEs). Diese Pes sind analog zu Neuronen im Gehirn und werden auch als Neuronen bezeichnet. Jedes PE sendet / empfängt Daten zu / von anderen PEs. Mathematisch gesehen ist das Standardmodell relativ einfach. Für jedes einzelne PE werden die Eingangsdaten (I0-In) mit dem Gewicht (W0-Wn) multipliziert, das der Verbindung zum PE zugeordnet ist. Diese Produkte werden wiederum summiert und durch eine Übertragungsfunktion geleitet, die die Summe in einen vorgegebenen Intervall - beispielsweise zwischen Null und Eins - umwandelt. Die Ausgabe von einem gegebenen PE wird dann mit einem anderen separaten Gewicht multipliziert und dem nächsten Verarbeitungselement zugeführt. Wenn sich das Verarbeitungselement in der Ausgabeschicht befindet, wie es in Fig. 1 der Fall ist, dann wird das Ausgangssignal des Verarbeitungselements nicht mit einem Gewicht multipliziert und ist statt dessen ein Ausgangssignal des Netzwerks selbst. Die ausgewählte Architektur des neuronalen Netzwerks spezifiziert die Anzahl der in einem Netzwerk vorhandenen Verarbeitungselemente und die Art der Verbindung. Es ist wichtig zu erkennen, dass ein einziges Verarbeitungselement wenig oder keinen Gebrauch hat. Es ist die Art und Weise, in der die einzelnen PEs organisiert werden, um komplexe nichtlineare Systeme zu modellieren, die bei der Anwendung von neuronalen Netzen auf die finanzielle Modellierung und Prognose wichtig sind. PARADIGMATISCHE VARIATIONEN Neuronale Netze können auf viele allgemeine Problembereiche angewendet werden, einschließlich Klassifizierung, Filterung, Musterverknüpfung, Optimierung, Konzeption und Vorhersage. Der erste Schritt bei der Schaffung einer künstlichen neuronalen Netzwerk-Anwendung beinhaltet die Identifizierung der Kategorie das Problem in Frage gehört - nicht unbedingt so einfach, wie es scheinen mag, weil viele verschiedene neuronale Netzwerk-Systeme sind besser geeignet als andere für eine bestimmte Anwendung. Da unser primäres Ziel darin besteht, die Preise und die Trendrichtung zu prognostizieren, kann dieses Problem jedoch als prädiktiv eingestuft werden. Viele verschiedene Paradigmen können für prädiktive Zwecke verwendet werden. Jeder hat eine fast unbegrenzte Anzahl von Variationen, je nachdem, wie Sie die Parameter auswählen. Es ist nicht so wichtig, dass Sie das perfekte Paradigma für Ihr Problem - wenn es so etwas gibt - wählen, da es einfach ist, eine, die mehr oder weniger angemessen ist, zu wählen. Nun untersuchen zwei bekannte Paradigmen: Feed-Forward und wiederkehrende Back-Propagation-Netzwerke. FEED-FORWARD-BACK-PROPAGATION-NETZWERKE Ein Feed-Forward-Multilayer-Netzwerk, das üblicherweise als Backpropagation - oder Backprojekt-Netzwerk bezeichnet wird, ist wahrscheinlich das am häufigsten verwendete Netzwerkparadigma. Eine repräsentative Architektur für ein Back-Prop-Netzwerk ist in Fig. 2 gezeigt. Diese Netzwerke bestehen aus einer Eingangsschicht von Neuronen, einigen verborgenen Schichten und einer Ausgangsschicht. Die Schichten zwischen dem Eingang und dem Ausgang werden als versteckte Schichten bezeichnet, weil sie im Wesentlichen aus der Sicht der Netzwerk-Entwickler und Benutzer verborgen sind. Obwohl ein Back-Prop-Netz eine beliebige Anzahl von versteckten Schichten aufweisen kann, ist eine ausreichend, um eine Zuordnung von Eingang zu Ausgang durchzuführen. Dies bedeutet nicht, dass eine einzelne verborgene Schicht ist immer die begehrenswerteste Zahl, aber es ist definitiv ein guter Ort zu starten. Der Betrieb des Netzwerks ist relativ einfach. Die Eingabedaten - zum Beispiel Änderungen der Preisdaten und gleitende Durchschnitte von Preisen, Volumen und offenen Zinsen - werden dem Netzwerk auf der Eingabeschicht vorgelegt. Die mit jedem einzelnen Eingangsneuron assoziierten Werte werden in die erste verborgene Schicht eingegeben. Jedes verborgene Neuron empfängt diese Werte, multipliziert mit dem entsprechenden Gewicht, summiert sie, führt sie durch eine Übertragungsfunktion aus und erzeugt eine Ausgabe. Die Ausgänge von der verborgenen Schicht führen dann entweder in die nächste verborgene Schicht oder in die Ausgabeschicht vor. Diese Darstellung (Fig. 2) geht davon aus, daß die Schichten vollständig verbunden sind, wobei jedes Neuron in der Eingangsschicht eine Verbindung zu jedem Neuron in der verborgenen Schicht aufweist. Gleiches gilt für die Verbindungen zwischen der verborgenen Schicht und der Ausgabeschicht. Dies muss nicht der Fall sein, aber es ist noch eine andere Entscheidung bei der Gestaltung eines Netzwerks getroffen werden. Die Anfangswerte der Gewichte werden zufällig in den Trainingsstufen des neuronalen Netzwerks ausgewählt, und daher wird der erste Satz von Eingabewerten (der oft als ein Eingangsvektor bezeichnet wird) wahrscheinlich nicht den geeigneten Ausgangsvektor erzeugen. Angenommen, Sie haben ein Netzwerk entworfen, um den Medianpreis einer Aktie eines Tages in der Zukunft vorherzusagen, basierend auf dem Unterschied in den Höhen und Tiefen der letzten zwei Tage und einem gleitenden Durchschnitt der Schließungen für die letzten fünf Jahre Tage. Sie würden das Netzwerk mit einer einzigen Tatsache präsentieren, die aus einem dreidimensionalen Eingangsvektor besteht, wobei jeder Wert einem der erwähnten Eingaben entspricht, und einem einwertigen Ausgangsvektor, der den nächsten Median-Preis darstellt. Als Ergebnis wird die erste Tatsache, die durch das Netzwerk präsentiert und gespeist wird, wahrscheinlich eine Ausgabe erzeugen, die sich sehr von der gewünschten Ausgabe unterscheidet. Was wir wollen, dass das Netzwerk lernen, ist, dass der Eingangsvektor, den es gegeben wurde, die Faktoren enthalten sollte, die schließlich den gelieferten Ausgangsvektor erzeugen würden. In dem ersten Versuch, dies zu tun, bestimmt das Netzwerk jedoch ein Maß für den Fehler zwischen seinem erzeugten Ausgangssignal und dem gewünschten Ausgangssignal. Dies geschieht für jede Ausgabe in der Ausgabeschicht, die in diesem einfachen Fall nur eine ist. Die Fehler werden dann schichtweise durch das Netzwerk zurückgeführt und dazu verwendet, die Gewichte der Verbindungen zwischen den Neuronen einzustellen, um den mit dem Ausgangsvektor assoziierten Gesamtfehler zu minimieren. Danach werden während des Trainings wiederholt veränderte Fakten in dem Netzwerk dem Netzwerk präsentiert, um zu versuchen, den Fehler auf akzeptable Werte zu reduzieren. Bei einfachen Problemen kann der Fehlerpegel auf Null reduziert werden, dies ist jedoch keine realistische Erwartung in den meisten Anwendungen der realen Welt. Recurrent Back-Propagation Networks Dieser Netzwerk-Typ besteht aus einer einzigen funktionalen Schicht von Verarbeitungselementen. Fig. 3 zeigt eine zweischichtige Darstellung, um die Architektur leichter zu visualisieren. Man beachte, daß die Neuronen in der ersten Schicht vollständig mit den Neuronen in der zweiten Schicht verbunden sind. Die Neuronen in der zweiten Schicht fließen in die erste Schicht mit einer Eins-zu-Eins-Abbildung zurück. Die zweite Schicht stellt eine Zeitverzögerung für den Durchgang von Daten durch das Netzwerk dar. Diese Art von Architektur erlaubt dem Netz, zeitliche Beziehungen zu lernen. Wenn Sie in einem Feed-Forward-Back-Prop-Netzwerk Fakten vorstellen möchten, die die Unterschiede in den letzten fünf Tagen enthalten, müssen Sie zunächst einen Snapshot Ihrer Daten erstellen, indem Sie eine Tatsache mit einer Eingabe erstellen Vektor, der fünf Werte (eine für jede Differenz) und eine Ausgabe für morgen enthält. Sie müssten dies für jede Tatsache / Tag vorgestellt, um das Netzwerk zu tun. In gewissem Sinne kodieren Sie die zeitlichen Informationen, die das Netzwerk verwenden soll (Daten der letzten fünf Tage), in die Eingabedaten selbst. Im Falle eines wiederkehrenden Netzes würden Sie dagegen stattdessen nacheinander jede Tatsache / Tag als einen einzigen Unterschied präsentieren. Da das Netzwerk sich selbst zurückspeichern kann, kann es die zeitlichen Informationen als Ergebnis der Reihenfolge, in der die Tatsachen präsentiert werden, lernen. In diesem Fall müssen Sie die temporäre Beziehung nicht in die Eingabedaten codieren. Wir haben beträchtliche Forschungen sowohl mit rekurrierenden als auch mit Feed-Forward-Netzen durchgeführt; aber die meisten kommerziell erhältlichen neuronalen Netzwerk-Entwicklungspakete enthalten kein rekurrierendes Modell, und deshalb konzentrieren wir uns hauptsächlich auf Back-Prop-Modelle. Für jedes wiederkehrende Netzwerk gibt es ein entsprechendes Feed-Forward-Netzwerk, das mit identischem Verhalten entworfen werden kann, so dass ein wiederkehrendes Netz mit einem Feed-Forward-Netz modelliert werden kann. NETZWERKARCHITEKTUR Die Netzwerkarchitektur umfasst die Übertragungsfunktion, die Anzahl und das Layout der Verarbeitungselemente und die Art und Weise, in der sie miteinander verbunden sind. Die allgemeinen Anforderungen für die Übertragungsfunktion in einem Back-Prop-Netzwerk besteht darin, dass es sich um eine nichtlineare, kontinuierlich differenzierbare Funktion handelt, dh eine Funktion, deren Ableitung an jedem Punkt existiert und deren abgeleitete Funktion es dem Netz erlaubt, eine nichtlineare statistische Modellierung durchzuführen. Die gebräuchlichsten Übertragungsfunktionen sind das Sigmoid und die hyperbolische Tangente: entweder können wirksam in einem Back-Prop-Netzwerk eingesetzt werden, obwohl wir mit der hyperbolischen Tangensfunktion oft bessere Ergebnisse erzielt haben. In Bezug auf Layout und Konnektivität konzentrieren wir uns auf eine dreischichtige, vollständig verbundene Architektur, wie in 2 gezeigt. Zusätzlich zu der Übertragungsfunktion und der Anzahl von Schichten müssen wir die Anzahl von Neuronen pro Schicht mit Eingabe auswählen Und Ausgabeschichten ist dies einfach. Gehen Sie davon aus, dass Sie versuchen, die Veränderung in der Nähe einer bestimmten Aktie vorherzusagen, und Sie wollen dies auf der Grundlage eines fünftägigen gleitenden Durchschnitt der Nähe, einen fünftägigen gleitenden Durchschnitt des hohen und einen fünftägigen gleitenden Durchschnitt Der niedrigen. Ihr Netzwerk benötigt drei Eingangsneuronen und ein Ausgangsneuron. Für jedes nichtlineare Problem, wie das der Vorhersage von Preisen eines Bestandes oder einer Ware, benötigt das Netzwerk mindestens eine verborgene Schicht. Die Wahl der Anzahl der Neuronen in den verborgenen Schichten eines Back-Propagation-Netzwerks ist nur eine der architektonischen Entscheidungen, die getroffen werden müssen. Keine harten und schnellen Regeln sind vorhanden, um die korrekte Zahl zu bestimmen, also müssen wir auf entweder grobe Daumenregeln oder Experimente oder beide verlassen. Häufig erfordern komplexere Probleme eine größere Anzahl von verborgenen Neuronen, aber wir haben festgestellt, dass zu viele verborgene Neuronen zu einem Netzwerk führen können, das zu den Trainingsdaten überpasst ist und es unwahrscheinlich ist, dass es bei neuen, unsichtbaren Tatsachen, die zum Testen verwendet werden, gut funktioniert. WO WERDEN WIR GEHEN VON HIER Wie wählen wir einen Ort zum Start Sie könnten mehrere Industrie-Richtlinien: Beginnen Sie mit einer Reihe von versteckten Neuronen zwischen der Hälfte der Anzahl der Eingabe-Neuronen und zwei Mal die Anzahl der Eingabe-Neuronen. Beginnen Sie mit einem Durchschnitt der Anzahl der Eingänge plus die Anzahl der Ausgänge oder nehmen Sie einfach das Maximum der beiden. Summieren Sie die Anzahl der Eingangs - und Ausgangsneuronen und multiplizieren Sie diesen Wert mit einer Rauschkonstanten, die abhängig von der relativen Rauschzahl in den Daten variiert. Je lauter die Daten, desto höher die Konstante. Das Ergebnis wird dann in die Gesamtzahl der für das Training verwendeten Tage / Tage unterteilt. Ein erster Ausgangspunkt für die Anzahl der verborgenen Neuronen kann subjektiv sein. Nachdem Sie dies tun, werden Sie wollen eine Reihe von Netzen, die Anzahl und Größe der versteckten Schichten zu trainieren. Manuelles Handeln kann für Händler, die gerade erst begonnen haben, ihre eigenen neuronalen Netze zu entwerfen, ratsam sein, da sie dazu beitragen wird, vertrauter zu werden mit den Kompromissen, die mit unterschiedlichen Trainingsparameterwerten verbunden sind, einschließlich der Anzahl versteckter Einheiten. Wenn Sie mehr erfahren, werden Sie wollen, um diesen Prozess zu automatisieren, da die Suche nach der optimalen Anzahl von versteckten Neuronen erfordert eine zeitraubende systematische Suche. Bei der Entwicklung neuronaler Netze, kein einziger Faktor, wie die Anzahl der verborgenen Einheiten, schließlich steuert, wie gut das Netzwerk durchführen wird. Datenauswahl und - qualität, Datenvorverarbeitung, Optimierung von Trainingsparametern und Testverfahren beeinflussen die Netzwerkleistung. Diese Fragen werden in späteren Artikeln genauer untersucht, sowie viele Probleme, die in jedem Stadium der Entwicklung eines neuronalen Netzes auftreten können. Als nächstes beschreibe ich wichtige Probleme, die die technischen, grundlegenden und intermarketischen Daten betreffen, die in neuronalen Netzwerken verwendet werden, und ich werde auch Methoden der Rohselektionselektion untersuchen und diese Eingaben vor dem Eingeben in das Netzwerk vorverarbeiten. Lou Mendelsohn ist Präsident von Market Technologies, Wesley Chapel, Fl. Eine Forschungs-, Entwicklungs - und Beratungsfirma, die an der Anwendung von künstlicher Intelligenz mit einer synergistischen Marktanalyse beteiligt ist. Er ist unter 813-973-0496 erreichbar. REFERENZEN Hecht-Nielsen, R. 1990. Neurocomputing, Addison-Wesley Verlag, Inc. Mendelsohn, Lou 1991. Die Grundlagen der Entwicklung eines Neural Trading Systems, Technische Analyse von STOCKS amp COMMODITIES, Band 9: JUNE Murphy, John J. 1991 Intermarket Technische Analyse, John Wiley amp Sons. Rumelhart, D. E. amp J. L. McClelland 1986. Parallele Verteilung, Band 1 und 2, Das Massachusetts Institute of Technology. Nachgedruckt von Technical Analysis of Stocks amp Commodities Magazin. (C) 1993 Technical Analysis, Inc., 4757 California Avenue S. W. Seattle, WA 98116-4499, (800) 832-4642.Wenn wir eine Prognose zu machen, die Bücher sagen uns, dass die wichtigste Methode ist die autoregressive gleitenden Durchschnitt Modell. Meiner Meinung nach gibt es ein weiteres großes Werkzeug, das Feed Forward Neuronales Netzwerk (FFNN). So denke ich, dass wir zwei Hauptwerkzeuge verwenden könnten: Autoregressiver gleitender Durchschnitt Feed forward neuronales Netz Natürlich muss es Unterschiede geben, aber ich bin kein Experte. Wer, mit ausreichenden Erfahrungen in diesen beiden Methoden, kann mir erklären, die Unterschiede zwischen diesen beiden Methoden auf die Vorhersagen gefragt Feb 20 14 bei 14: 53Neural Network Neural Network ist eines der neueren Schlagzeilen im Handel. Es klingt kühl und anspruchsvoll. Nicht zu viele Menschen scheinen zu verstehen, was neuronale Netze sind alle über. Neuronen in der realen Welt Unsere Gehirne sind phänomenal kompliziert. Was überrascht die meisten Menschen ist jedoch, dass das Gehirn ist mehr oder weniger eine enorme Box von Schaltungen. Neuronen sind Zellen, die wie Schaltungen mit elektrischen Drähten, genannt Axone, die auslaufen und verbinden sich über den menschlichen Körper. Jede Bewegung, Wahrnehmung oder Aktion, die Sie tun, ist die Summe aller Axone, die elektrische Impulse auslösen. Eine Veränderung tritt auf, wenn die Frequenz der elektrischen Impulse, die von dem Neuron gesendet werden, variiert. Mehr Impulse verursachen eine Reaktion, eine Reduktion verursacht eine andere. Neuronale Netze versuchen, Prozesse des menschlichen Gehirns zu emulieren, indem sie Informationen in Neuronen organisieren. Im Gegensatz zu den tatsächlichen Neuronenzellen existiert ein Netzwerkneuron nur in der Maschine. Sein ein Maschinengewicht, das Informationen über alles enthält, was unter Studie ist. Ein neuronales Netzwerk für ein Handelssystem könnte entscheiden, gemeinsame Indikatoren wie einen gleitenden Durchschnitt, die RSI und Stochastik Oszillator zu studieren. Der gleitende Mittelwert für den aktuellen Balken zählt als eigenes Neuron. Die RSI ist anders, so wird es zu einem separaten Neuron werden. Wenn ich zehn Indikatoren in meiner Toolbox habe, dann habe ich 10 Neuronen in meinem Netzwerk. Computer lösen traditionell lineare, einfache Probleme. Wenn Sie das Ergebnis von mathematischen Operationen wie der Würfelwurzel von 355 wissen wollen, sind Computer für die Aufgabe perfekt. Sie berechnen schnell eine genaue Antwort. Wie im menschlichen Gehirn, neuronale Netze bilden Synapsen mit anderen Neuronen. Wenn sie trainiert werden, können Gruppen von Neuronen lernen, Muster zu erkennen. Es ist diese Eigenschaft, die neuronale Netze so nützlich macht. Dadurch können wir Programme erstellen, die mit herkömmlichen Computern nicht möglich sind. Das Erstellen eines Softwareprogramms zum Erkennen eines Gesichts wäre zum Beispiel extrem schwierig. Es ist viel einfacher, ein Netzwerk zu trainieren, um ein Gesicht zu erkennen, indem es wiederholt die Netzwerkgesichter zeigt. Das Gehirn ist ein faszinierendes Thema. Abgesehen davon nehmen meine Frau und ich eine Umfrage Kurs in Neurowissenschaften durch eine Video-Serie von The Great Courses. Wenn Sie überhaupt Interesse an dem Thema haben, empfehle ich das Verständnis des Gehirns von Jeanette Norden. Es deckt im Detail, wie Neuronen Verbindung zur Anatomie im gesamten Gehirn und den ganzen Körper. Neuronale Netze und Forex Trading Neuronale Netze kommen ins Spiel, wenn die Antwort nicht so präzise ist. Sticking mit diesem Blogs Thema der Devisenhandel gibt es keine richtige Antwort auf das, was das perfekte Handelssystem macht. Ein typischer Kleinanleger könnte sagen, dass das beste Handelssystem dasjenige ist, das das meiste Geld macht. Ein anderes könnte sagen, dass das beste Handelssystem das mit dem höchsten Sharpe Verhältnis ist. Viele wollen etwas in der Mitte. Das beste Handelssystem Problem ist zweideutig, das es ein idealer Kandidat für den Angriff mit neuronalen Netzwerken macht. Der Entwerfer skizziert Regelsätze, die nach Meinung der Händler eine numerische Methode zur Messung des besten Systems bilden. Der menschliche Gehirn Host etwa 100 Milliarden Neuronen. Trotz der besten Bemühungen vieler unserer Kunden, habe ich noch niemanden mit 100 Milliarden Marktindikatoren zur Verfügung zu treffen. Eine Möglichkeit, die Wirkung von Neuronen in unserer Toolbox zu verstärken, besteht darin, versteckte Schichten zu erzeugen. Ein Netzwerk besteht aus mehreren Schichten, die jeweils aus mehreren Neuronen bestehen. Jedes Neuron ist mit jedem Neuron in der nächsten Schicht verbunden. Jede Verbindung trägt dann ihren eigenen, gewichteten Wert. Ein Neuron wird seinen Wert weitergeben, indem er den Wert des Neurons und das Gewicht der ausgehenden Verbindung multipliziert. Das Neuron am Ende der ausgehenden Verbindung wird alle eingehenden Verbindungen zusammenfassen und dieses Ergebnis über alle seine ausgehenden Verbindungen auf die nächste Schicht übertragen. Bilder machen die Idee viel intuitiver. Abbildung 1 enthält ein kleines Beispiel. Die 2 und 3 auf der linken Seite sind die Eingänge in das Netzwerk. Diese Eingaben werden mit dem Gewicht der Verbindung zur nächsten Schicht multipliziert. Die 2 wird mit 0,5 multipliziert, was uns 1 und 3 durch 2 ergibt. 6. Die zweite Schicht enthält einen Knoten, der die Ergebnisse der vorherigen Schicht zusammenfasst, was uns 7 ergibt. Der nächste Schritt wäre, 7 mit den Gewichten zu multiplizieren Die ausgehenden Verbindungen und übergeben sie auf die nächste Schicht. Abbildung 1: Ein Beispiel für ein neuronales Netzwerk, das die Ergebnisse weiterleitet. Das kurze Beispiel oben kann wiederholt und zusammengekettet werden, um ein größeres Netzwerk zu bilden. Unten, in Abbildung 2, haben wir ein Beispiel für ein größeres Netzwerk. Das Beispielnetzwerk hat 3 Eingänge, die mit einer verborgenen Schicht verbunden sind. Die verborgene Schicht wird dann mit einem einzigen Ausgang verbunden. Die verborgenen Schichten sollen das Training erleichtern. Je komplexer das Problem, desto mehr Schichten und Knoten benötigt. Abbildung 2: Ein Beispiel für ein größeres neuronales Netzwerk. Das Netzwerk lernt durch die Aktualisierung der Gewichte seiner vielen Verbindungen. Es gibt viele Software-Algorithmen, die verwendet werden, um das Lernen in neuronalen Netzwerken zu erreichen. Sie fallen in zwei Kategorien, überwachtes Lernen und unüberwachtes Lernen. Überwachtes Lernen wird mit dem Benutzer erreicht, der dem Netz sagt, wenn seine Vorhersagen korrekt sind oder nicht. Das Netzwerk berechnet dann seinen Fehler und verwendet einen der Algorithmen, um den Fehler zu korrigieren. Ein Beispiel hierfür ist die Reverse-Propagation, die den Fehler einer Netzwerkvorhersage berechnet. Das Netzwerk verwendet dann einen schnellen Algorithmus, um jedes der Verbindungsgewichte mit diesem Fehler zu aktualisieren. Reverse Propagation ist eine der häufigsten Trainingsstrategien. Unüberwachtes Lernen verwendet eine Art von Fitness oder Scoring-Algorithmus, in dem das Netzwerk punkten wird mit und versuchen, auf jeden weiteren Versuch zu verbessern. Ein Beispiel für unüberwachtes Training ist der genetische Algorithmus. Dieser Algorithmus erzeugt eine Population von neuronalen Netzwerken und verwendet einen Scoring-Algorithmus, der vom Benutzer entworfen wurde, um die Population zu klassifizieren. Danach ist es das Überleben der Stärksten. Die Top-Ranking-Netzwerke erhalten zu bleiben und zu reproduzieren und die unteren rangiert werden geworfen. Die Netzwerke reproduzieren durch Mischen und passende Verbindungsgewichte. Neuronale Netze können System-Händler in ihrem Algorithmus-Design wesentlich unterstützen, indem sie Milliarden von Kombinationen aus einer relativ kleinen Toolbox von Indikatoren erforschen. Dies unterscheidet sich von Standard-Optimierung, die das Verstopfen von Zahlen in verschiedenen Indikatoren auf der Suche nach einer Kombination, die das meiste Geld zurückgibt. Die Tatsache, dass Netzwerke mehrere Maßnahmen berücksichtigen können (Balance, Sharpe Ratio usw.), um das beste Handelssystem zu bestimmen, verringert die Wahrscheinlichkeit, dass es eine bestimmte Maßnahme überbetont. Ein gutes Beispiel hierfür ist der Kontostand. Wenn ein System das Geben und Nehmen zwischen der Netto-Rendite und der risikoadjustierten Rendite wiegt, beginnt es, sich von der Zahl zu befreien, die knirscht, um die besten Zahlen zu entdecken und in Richtung tatsächliche Lernen und Mustererkennung zu gehen. Neuronale Netze erweisen sich als sehr nützlich in einer breiten Palette von Anwendungen von Gesichtserkennung zu Devisenmarkt Prognosen. Sie übertreffen, wo es Muster gibt, die für uns schwer zu erkennen sind. Diese Fähigkeit macht Netzwerke von unschätzbarem Wert bei der Lösung schwieriger Probleme mit mehreren Variablen. Hinterlasse eine Antwort Antworten abbrechen

No comments:

Post a Comment