Neuronales Netzwerk Gleitender Durchschnitt


Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann annähern: Ich kann nicht denken, wie es könnte. Es scheint wie eine sehr offensichtliche Beschränkung von neuronalen Netzwerken, die möglicherweise begrenzen, was sie tun kann. Zum Beispiel, aufgrund dieser Einschränkung, neuronale Netze wahrscheinlich nicht richtig passen viele Funktionen in Statistiken wie Exponential Moving Average, oder sogar Varianz verwendet. Apropos gleitenden Durchschnitt, können wiederkehrende neuronale Netze richtig approximieren, dass ich verstehe, wie ein Feedforward neuronales Netzwerk oder sogar ein einziges lineares Neuron einen gleitenden Durchschnitt mit der gleitenden Fenstertechnik ausgeben kann, aber wie würden wiederkehrende neuronale Netze es ohne X Menge von versteckten Schichten tun (Wobei X die gleitende mittlere Größe ist) Auch gehen wir davon aus, dass wir die ursprüngliche Funktion f nicht kennen. Was passiert, um den Durchschnitt der letzten 500 Eingaben zu erhalten, und dann eine 1 ausgeben, wenn seine höher als 3 und 0, wenn seine nicht. Aber für eine Sekunde, so tun wir nicht wissen, dass es eine schwarze Box. Wie würde ein rekurrierendes neuronales Netzwerk annähern, dass wir zuerst wissen müssen, wie viele timesteps es haben sollte, die wir nicht haben. Vielleicht ein LSTM-Netzwerk könnte, aber auch dann, was ist, wenn seine nicht eine einfache gleitende Durchschnitt, seine ein exponentieller gleitender Durchschnitt Ich glaube nicht, sogar LSTM kann es tun. Noch schlimmer noch, was ist, wenn f (x, x1), dass wir versuchen zu lernen, ist einfach Das scheint sehr einfach und unkompliziert. Kann ein neuronales Netzwerk es lernen Ich sehe nicht, wie. Bin ich etwas großes hier fehlt oder sind maschinelle Lernalgorithmen extrem begrenzt Gibt es andere Lerntechniken neben neuronalen Netzwerken, die tatsächlich irgendwelche von diesem tun können Der entscheidende Punkt zu verstehen ist kompakt. Neuronale Netze (wie jede andere Approximationsstruktur wie Polynome, Splines oder Radiale Basisfunktionen) können jede kontinuierliche Funktion nur innerhalb eines kompakten Satzes approximieren. Mit anderen Worten, die Theorie besagt, dass gegeben: dann gibt es ein neuronales Netzwerk, das f (x) mit einem Näherungsfehler kleiner als epsilon approximiert. Überall innerhalb von a, b. Was dein Beispiel von f (x) x 2 betrifft. Ja Sie können es mit einem neuronalen Netzwerk innerhalb eines endlichen Bereiches approximieren: -1,1. 0, 1000. Etc. Um dies zu visualisieren, stellen Sie sich vor, dass Sie f (x) innerhalb -1,1 mit einer Schrittfunktion approximieren. Können Sie es auf Papier tun? Beachten Sie, dass, wenn Sie die Schritte schmal genug, können Sie jede gewünschte Genauigkeit zu erreichen. Die Art und Weise, wie neuronale Netze näherungsweise f (x) sind, unterscheidet sich nicht wesentlich von dieser. Aber auch hier gibt es kein neuronales Netzwerk (oder irgendeine andere Näherungsstruktur) mit einer endlichen Anzahl von Parametern, die f (x) x 2 für alle x in -,, approximieren können. Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann approximieren: Die einzige Möglichkeit, kann ich Sinn für diese Frage ist, dass Sie über Extrapolation reden. So z. B. Gegeben Trainings-Samples im Bereich -1 lt x lt 1 kann ein neuronales Netzwerk die richtigen Werte für x gt 100 lernen. Ist das, was du meinst Wenn Sie vorher wissen, dass die Funktionen, die Sie zu approximieren versuchen wahrscheinlich niedriger sein werden Polynome (oder jede andere Menge von Funktionen), dann könnten Sie sicher ein neuronales Netzwerk, dass diese Funktionen darstellen können, und extrapolieren x2 überall zu bauen. Wenn Sie dont Vorkenntnisse haben, sind die Dinge ein bisschen schwieriger: Es gibt unendlich viele glatte Funktionen, die x2 im Bereich -1..1 perfekt passen, und theres kein guter Grund, warum wir erwarten würden, dass x2 bessere Vorhersagen als alle anderen geben Funktion. Mit anderen Worten: Wenn wir keine Vorkenntnisse über die Funktion hatten, die versucht wurde, zu lernen, warum sollten wir x - gt x2 lernen wollen. Im Bereich der künstlichen Trainingssets, x2 könnte eine wahrscheinliche Funktion sein, aber in der realen Welt, ist es wahrscheinlich nicht. Um ein Beispiel zu nennen: Nehmen wir an, dass die Temperatur am Montag (t0) 0 ist, am Dienstag ihre 1, am Mittwoch ihre 4. Wir haben keinen Grund zu glauben, dass sich Temperaturen wie niederwertige Polynome verhalten, so dass wir nicht auf diese Daten schließen wollen Dass die Temperatur am nächsten Montag vermutlich um 49 liegen wird. Nehmen wir auch an, dass wir die ursprüngliche Funktion f nicht kennen, die den Durchschnitt der letzten 500 Eingaben erhält und dann eine 1 ausgibt, wenn sie höher als 3 ist und 0 wenn es ist nicht. Aber für eine Sekunde, so tun wir nicht wissen, dass es eine schwarze Box. Wie würde ein rekurrierendes neuronales Netz annähern, dass ich denke, das ist zwei Fragen: Erstens kann ein neuronales Netzwerk diese Funktion darstellen. Gibt es eine Reihe von Gewichten, die genau das Verhalten geben würde Es hängt offensichtlich von der Netzwerk-Architektur, aber ich denke, wir können kommen mit Architekturen, die repräsentieren (oder zumindest näher) kann diese Art von Funktion. Frage 2: Kann man diese Funktion lernen, wenn man genügend Trainingsproben bekommt. Wenn Ihr Lernalgorithmus nicht in einem lokalen Minimum steckt, ist es sicher: Wenn Sie genug Trainingsprogramme haben, gibt jeder Satz von Gewichten, der die Funktion nicht annimmt, einen größeren Trainingsfehler Dass 0, während ein Satz von Gewichten, die die Funktion youre versuchen, lernen zu lernen hat ein Training error0. Wenn Sie also ein globales Optimum finden, muss das Netzwerk der Funktion entsprechen. Der Grund, den ich an x2 dachte. Und einfache oder exponentielle gleitende Durchschnitte vor allem ist, weil es ein gutes Geschäft in der Finanzmarkt-Vorhersage in der technischen Analyse verwendet wird. Ich hatte gehofft, dass ein neuronales Netzwerk könnte potenziell lernen, die Algorithmen und den Handel auf sie basiert, ohne dass sie zuerst hart codieren und geben ihr Ergebnis. Allerdings I39m versuchen, herauszufinden, ob ein neuronales Netzwerk kann sogar eine solche Funktion lernen. Ndash Ich verstehe, wie x2 ist nicht gerade nützlich für die Wettervorhersage, und könnte dazu führen, dass das Netzwerk 49 Grad vorhersagen am nächsten Montag, aber I39m sicher in der Lage, eine Polynom-Funktion lernen könnte nützlich sein Zum Beispiel für die Preisvorhersage von FOREX. Ich verstehe vielleicht eine andere Netzwerkarchitektur als ich im Sinn hätte, aber ich kann keine Architektur kennen, die f (x, x1) xx1 repräsentieren kann. Ich glaube, ich könnte das Wort ungeeignet anstelle von Repräsentanten missbraucht haben, aber ich glaube Ihnen Noch verstanden, was ich versuchte zu sagen, just fine. Sorry ich couldn39t meinen letzten Beitrag in der Zeit bearbeiten. Ndash Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann annähern: Ja, es kann. Ich weiß nicht, was Sie denken, dass eine harte Funktion zu approximieren ist, ist es ein sehr einfaches. Bei genügend versteckten Einheiten kann ein neuronales Netzwerk jede beliebige Funktion einer beliebigen Genauigkeit anpassen. Apropos gleitenden Durchschnitt können wiederkehrende neuronale Netze richtig annähern, dass Ja, es kann. Es ist ein wieder ein sehr einfaches Problem, dass Sie zu denken scheint schwierig aus irgendeinem Grund sind Sie nicht teilen. Sie können die triviale Lösung sehen, indem Sie nur den verborgenen Zustand erstellen, der groß genug ist, um die gesamte Geschichte und den Rest des Netzwerks zu enthalten, um den Durchschnitt aus dem wiederkehrenden verborgenen Zustand zu berechnen. Wir müssen zuerst wissen, wie viele timesteps es haben sollte, die wir nicht haben. Das ist ein Parameter-Tuning-Problem, diese wurden zuvor behandelt. Sie können ganz einfach nach weiteren Informationen suchen. Bin ich etwas großes hier fehlt oder sind maschinelle Lernalgorithmen extrem begrenzt Gibt es andere Lerntechniken neben neuronalen Netzwerken, die tatsächlich tun können, eines dieser Ja, scheinen Sie fehlt jedes echte Verständnis von neuronalen Netzwerken. Ihre erste Aussage von Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann annähernd zeigt, dass Sie nicht wirklich verstehen, die Worte, die Sie verwenden. Es gibt eine Vielzahl von Themen, die Sie nicht verstehen oder miteinander verknüpfen können, und niemand wird in der Lage sein, Sie direkt in einem einfachen QampA-Format. Wenn Sie wirklich wollen, zu verstehen, was los ist, nehmen Sie einige Graduate-Kurse in Machine Learning und Neural Networks im Besonderen. Ein guter Ausgangspunkt für diese Videos wäre, wenn Sie bereits das richtige Wissen besitzen. Antwortete am 1. September 14 um 16:37 Dies ist nicht der geeignete Ort zu lehren. Schnappen Sie sich eines der vielen Bücher zum Thema und lesen Sie das. Sie aren39t auch unter Berücksichtigung der Art der Aktivierung Funktion oder dass es mehr als eine Einheit pro Eingang oder dass es viele versteckte Schichten (nicht, dass sie benötigt werden, sondern helfen Verständnis). Ndash Raff. Edward Sep 1 14 am 19:09 Raff Edward, waren Sie unhöflich und verkleinernd in Ihren Antworten, nur weil SIE und nicht Essam, die theoretischen Einschränkungen der neuronalen Netze nicht verstehen. NEIN, NEIN, NEIN Kein neuronales Netzwerk kann jemals die Funktion f (x) xx lernen Es kann auch keine unendliche Anzahl anderer Funktionen lernen, es sei denn, Sie nehmen das Unpraktische an: 1 - eine unendliche Zahl von Trainingsbeispielen 2 - eine unendliche Anzahl von Einheiten 3 eine unendliche Menge an Zeit zu konvergieren NNs sind gut in das Lernen Low-Level-Muster Erkennung Probleme (Signale, die am Ende haben einige statistische Muster, die durch einige kontinuierliche Funktion dargestellt werden kann), aber das ist es nicht mehr Heres ein Tipp: versuchen Um einen NN zu erzeugen, der n1 Dateneingaben (x0, x1, x2, xn) annimmt und true (oder 1) zurückgibt, wenn (2 x0) im Rest der Sequenz ist. Und viel Glück. Unendliche Funktionen, insbesondere solche, die rekursiv sind, können nicht gelernt werden. Sie sind nur Raff Edward missverstanden meine Frage. Er hat mit Recht behauptet, dass neuronale Netze jede Funktion approximieren können, aber ein wichtiger Teil, den er und ich nicht richtig spezifiziert haben, ist, dass er jede beliebige Quotient-Funktion approximieren kann. Dies bedeutet, daß es ungefähre f (x) annimmt, wenn x einen unendlichen Bereich hat, wie Panagiotis hervorhob. Ndash Essam Al-Mansouri 10. Januar um 9.33 Verbesserung der Auto-Regressive Integrated Moving Average Modelle mit Fuzzy-Logik und künstliche neuronale Netze (ANNs) Zeitreihen-Prognose ist ein aktiver Forschungsbereich, der große Aufmerksamkeit für Anwendungen in einer Vielzahl von Bereichen gezogen hat. Auto-regressive integrierte Moving Average (ARIMA) Modelle sind eines der wichtigsten Zeitreihen-Modelle in der Finanzmarkt-Prognose in den letzten drei Jahrzehnten verwendet. Aktuelle Forschungsaktivitäten in der Zeitreihenprognose zeigen, dass zwei grundlegende Einschränkungen ihre Popularität für die finanzielle Zeitreihenvorhersage beeinträchtigen: (a) ARIMA-Modelle gehen davon aus, dass zukünftige Werte einer Zeitreihe einen linearen Zusammenhang mit aktuellen und vergangenen Werten sowie mit weißem Rauschen aufweisen , So dass Approximationen von ARIMA-Modellen möglicherweise nicht für komplexe nichtlineare Probleme geeignet sind und (b) ARIMA-Modelle eine große Menge an historischen Daten benötigen, um genaue Ergebnisse zu erzielen. Sowohl theoretische als auch empirische Befunde haben nahegelegt, dass die Integration verschiedener Modelle eine effektive Methode zur Verbesserung ihrer prädiktiven Leistung sein kann, insbesondere wenn die Modelle im Ensemble ganz anders sind. In dieser Arbeit werden ARIMA-Modelle mit künstlichen neuronalen Netzwerken (ANNs) und Fuzzy-Logik integriert, um die linearen und Datenbeschränkungen von ARIMA-Modellen zu überwinden und damit genauere Ergebnisse zu erzielen. Empirische Ergebnisse der Finanzmarktprognosen zeigen, dass die Hybridmodelle eine effektiv verbesserte Prognosegenauigkeit aufweisen, so dass das vorgeschlagene Modell als Alternative zu Finanzmarktprognosewerkzeugen eingesetzt werden kann. Auto-Regressiver Integrierter Gleitender Durchschnitt (ARIMA) Zeitreihenvorhersage Künstliche Neuronale Netze (ANNs) Fuzzy-Logik Finanzmarkt Wechselkurs Entsprechender Autor. Tel. 98xA0311xA03912550xA01 Fax: 98xA0311xA03915526. Copyright 2008 Elsevier B. V. Alle Rechte vorbehalten. Mehdi Khashei wurde 1979 in Esfahan, Iran, geboren. Er studierte Wirtschaftsingenieurwesen an der Isfahan University of Technology (IUT) und erhielt 2005 den MS-Abschluss in Wirtschaftsingenieurwesen. Er ist Autor oder Co-Autor von etwa 13 wissenschaftlichen Arbeiten in internationalen Zeitschriften oder Mitteilungen an Konferenzen mit Revisionsausschuss. Seine aktuelle Forschung kombiniert die Auto-Regressive Integrated Moving Average (ARIMA) Modelle mit künstlichen neuronalen Netzwerken (ANNs) und Fuzzy-Logik auf Zeitreihe Prognose. Seine Forschungsinteressen umfassen rechnerische Modelle des Gehirns, Fuzzy-Logik, Soft Computing, nichtlineare Approximatoren und Zeitreihen-Prognosen. Mehdi Bijari erhielt seinen BSc in Industrial Engineering, 1987, MSc in Systemplanung, 1990, beide von der Isfahan University of Technology (IUT) und PhD in Industrial Engineering 2002, Sharif University of Technology. Er arbeitet seit 1991 im Bereich Industrietechnik an der IUT. Seine Forschungsschwerpunkte liegen im Bereich Projektmanagement, Simulation, Produktionsplanung, metaheuristische Methoden, Optimierung, Zeitreihenvorhersage und Informationssysteme. Er hat verschiedene Arbeiten in der Produktionsplanung, Zeitreihenvorhersage und Optimierung veröffentlicht. Gholam Ali Raissi Ardali ist Professor für Wirtschaftsingenieurwesen an der Isfahan University of Technology (IUT). Er erhielt BSc in Statistik amp informatics, 1975, vom Institut für Statistik und Informatik, Teheran, Iran, MSc in angewandter Statistik, 1977, von der Brunel University, England und PhD in Industrial Technology, 1980, von der Bradford University, England. Seine Forschungsinteressen sind das gesamte Qualitätsmanagement, die statistische Qualitätskontrolle, die Zeitreihenvorhersage, neuronale Netze und das Supply Chain Management. 9.3 Neuronale Netzwerkmodelle Künstliche neuronale Netze prognostizieren Methoden, die auf einfachen mathematischen Modellen des Gehirns basieren. Sie ermöglichen komplexe nichtlineare Beziehungen zwischen der Antwortvariablen und ihren Prädiktoren. Neuronale Netzwerkarchitektur Ein neuronales Netzwerk kann als ein Netzwerk von neuronalen Schichten betrachtet werden. Die Prädiktoren (oder Eingaben) bilden die untere Schicht, und die Prognosen (oder Ausgaben) bilden die oberste Schicht. Es können Zwischenschichten mit verborgenen Neuronen vorhanden sein. Die sehr einfachsten Netzwerke enthalten keine versteckten Schichten und entsprechen der linearen Regression. Abbildung 9.9 zeigt die neuronale Netzversion einer linearen Regression mit vier Prädiktoren. Die an diese Prädiktoren gebundenen Koeffizienten werden Gewichte genannt. Die Prognosen werden durch eine lineare Kombination der Eingaben erhalten. Die Gewichte werden im neuronalen Netzwerkrahmen unter Verwendung eines Lernalgorithmus ausgewählt, der eine Kostenfunktion wie MSE minimiert. Natürlich können wir in diesem einfachen Beispiel eine lineare Regression verwenden, die eine viel effizientere Methode zum Trainieren des Modells darstellt. Sobald wir eine Zwischenschicht mit versteckten Neuronen hinzufügen, wird das neuronale Netzwerk nicht linear. Ein einfaches Beispiel ist in Abbildung 9.10 dargestellt. Dies wird als ein mehrschichtiges Feedforward-Netzwerk bezeichnet, bei dem jede Schicht von Knoten Eingaben von den vorherigen Schichten empfängt. Die Ausgänge von Knoten in einer Schicht sind Eingaben für die nächste Schicht. Die Eingänge zu jedem Knoten werden unter Verwendung einer gewichteten Linearkombination kombiniert. Das Ergebnis wird dann durch eine nichtlineare Funktion vor der Ausgabe modifiziert. Zum Beispiel werden die Eingaben in das verborgene Neuron j in Abbildung 9.10 linear kombiniert, um 91 zj bj sum 4 w xi zu ergeben. 93 In der ausgeblendeten Schicht wird diese dann mit einer nichtlinearen Funktion wie einem Sigmoid modifiziert, um die Eingabe für die nächste Schicht zu erhalten. Dies neigt dazu, die Wirkung von extremen Eingangswerten zu verringern, wodurch das Netzwerk etwas robust gegenüber Ausreißern wird. Aus den Daten werden die Parameter b1, b2, b3 und w, Punkte, w erlernt. Die Werte der Gewichte sind oft beschränkt, um zu verhindern, dass sie zu groß werden. Der Parameter, der die Gewichte beschränkt, ist als Decay-Parameter bekannt und wird oft auf 0,1 gesetzt. Die Gewichte nehmen zufällig Werte an, die dann mit den beobachteten Daten aktualisiert werden. Folglich gibt es ein Element der Zufälligkeit in den Vorhersagen, die von einem neuronalen Netzwerk erzeugt werden. Daher wird das Netzwerk gewöhnlich mehrmals unter Verwendung verschiedener zufälliger Startpunkte trainiert, und die Ergebnisse werden gemittelt. Die Anzahl der ausgeblendeten Ebenen und die Anzahl der Knoten in jeder ausgeblendeten Ebene müssen im Voraus angegeben werden. Wir werden untersuchen, wie diese mit einer Kreuzvalidierung später in diesem Kapitel ausgewählt werden können. Beispiel 9.5 Credit-Scoring Zur Veranschaulichung der neuronalen Netzprognose verwenden wir das in Kapitel 5 erörterte Credit-Scoring-Beispiel. Dabei wurde das folgende lineare Regressionsmodell eingesetzt: y beta beta x beta 3x3 beta 4x4 e Hier log die Transformation Log (x1). Dies könnte durch das in Abbildung 9.9 dargestellte Netzwerk dargestellt werden, wobei die Eingänge x1, dots, x4 sind und der Ausgang y ist. Das in Abbildung 9.10 gezeigte anspruchsvollere neuronale Netzwerk könnte wie folgt angepasst werden. Bibliothek 40 kartell 41 kreditor lt-daten. Rahmen 40 Punkte creditscore, log. Sparbuch 40 creditsavings 1 41, log. Einkommenslog 40 creditincome 1 41, log. Adressbuch 40 credittime. Adresse 1 41, log. Verwendete log 40 credittime. Beschäftigt 1 41, fte creditfte, single creditseinzel 41 fit lt - avNNet 40 Punkte. Sparbuch. Einkommenslog. Adresse anmelden. beschäftigt. Data creditlog, repeats 25. Größe 3. decay 0.1, linout TRUE 41 Die avNNet-Funktion aus dem caret-Paket passt zu einem feed-forward neuronalen Netzwerk mit einer verborgenen Schicht. Das hier angegebene Netzwerk enthält drei Knoten (size3) in der ausgeblendeten Ebene. Der Decay-Parameter wurde auf 0,1 gesetzt. Das Argument repeats25 zeigt, dass 25 Netzwerke trainiert und ihre Prognosen gemittelt werden sollen. Das Argument linoutTRUE gibt an, dass die Ausgabe unter Verwendung einer linearen Funktion erhalten wird. In diesem Buch werden wir immer linoutTRUE angeben. Neuronale Netzwerkautoregression Mit Zeitreihendaten können verzögerte Werte der Zeitreihen als Eingaben in ein neuronales Netzwerk verwendet werden. Ebenso wie wir in einem linearen Autoregressionsmodell (Kapitel 8) verzögerte Werte verwendeten, können wir in einer neuronalen Netzwerkautoregression verzögerte Werte verwenden. In diesem Buch betrachten wir nur Feed-Forward-Netze mit einer verborgenen Schicht und verwenden die Notation NNAR (p, k), um anzuzeigen, dass es p-verzögerte Eingaben und k Knoten in der ausgeblendeten Schicht gibt. Zum Beispiel ist ein NNAR (9,5) - Modell ein neuronales Netz mit den letzten neun Beobachtungen (y, y, Punkte, y), die als Eingaben zur Prognose des Ausgangssignals yt und mit fünf Neuronen in der verborgenen Schicht verwendet werden. Ein NNAR (p, 0) - Modell entspricht einem ARIMA (p, 0,0) - Modell, jedoch ohne die Einschränkungen der Parameter, um die Stationarität zu gewährleisten. Mit saisonalen Daten ist es sinnvoll, auch die letzten beobachteten Werte aus der gleichen Saison als Inputs hinzuzufügen. Zum Beispiel hat ein NNAR (3,1,2) - Modell die Eingaben y, y, y und y und zwei Neuronen in der verborgenen Schicht. Allgemeiner hat ein NNAR (p, P, k) m Modell Eingänge (y, y, Punkte, y, y, y, y) und k Neuronen in der verborgenen Schicht. Ein Modell von NNAR (p, P, 0) m entspricht einem Modell von ARIMA (p, 0,0) (P, 0,0) m, aber ohne die Einschränkungen der Parameter, um die Stationarität zu gewährleisten. Die Funktion nnetar () passt zu einem Modell NNAR (p, P, k) m. Wenn die Werte von p und P nicht angegeben sind, werden sie automatisch ausgewählt. Für nicht-saisonale Zeitreihen ist die Voreinstellung die optimale Anzahl von Verzögerungen (nach dem AIC) für ein lineares AR (p) - Modell. Für saisonale Zeitreihen sind die Standardwerte P1 und p wird aus dem optimalen linearen Modell ausgewählt, das an den saisonbereinigten Daten angepasst ist. Wenn k nicht angegeben ist, wird es auf k (pP1) 2 (gerundet auf die nächste ganze Zahl) gesetzt. Beispiel 9.6: Sonnenflecken Die Oberfläche der Sonne enthält magnetische Bereiche, die als dunkle Flecken erscheinen. Diese beeinflussen die Ausbreitung von Funkwellen und so Telekommunikationsunternehmen gerne vorhersagen, Sunspot-Aktivität, um für zukünftige Schwierigkeiten zu planen. Sonnenflecken folgen einem Zyklus von Länge zwischen 9 und 14 Jahren. In Abbildung 9.11 sind die Prognosen eines NNAR (9,5) für die nächsten 20 Jahre dargestellt. Fit lt - nnetar 40 sunspotarea 41 plot 40 prognose 40 fit, h 20 41 41 Die Prognosen gehen sogar etwas negativ, was natürlich unmöglich ist. Wenn wir die Prognosen einschränken wollten, um positiv zu bleiben, konnten wir eine Log-Transformation verwenden (spezifiziert durch den Box-Cox-Parameter lambda 0): fit lt - nnetar 40 sunspotarea, lambda 0 41 plot 40 prognose 40 fit, h 20 41 41

Comments

Popular posts from this blog

Nachricht Senden Zuzwinkern Forex Forint Szгўmla

Mg Forex Überprüfung

Sap Mm Moving Average Preis Berechnung