Friday 28 July 2017

Differenz Zwischen Bewegung Durchschnitt Und Lineare Regression


Mike, zuerst installiere R (falls noch nicht vorhanden), lauf R und installiere das TeachingDemos Paket (genau wie hängt von deinem System ab), lade das Paket mit der Bibliothek (TeachingDemos) und drücke loess. demo, um die Hilfeseite zu sehen Wie man es ausführen, können Sie scrollen, um den Boden, wo das Beispiel sind und kopieren und fügen Sie diesen Code in R39s Befehlszeile, um die Beispiele zu sehen, dann mit Ihren eigenen Daten weiter zu erforschen. Ndash Greg Snow Mar 23 12 at 17:15 Hier ist eine einfache, aber detaillierte Antwort. Ein lineares Modell passt zu einer Beziehung über alle Datenpunkte. Dieses Modell kann erste Ordnung (eine andere Bedeutung von linearem) oder Polynom sein, um der Krümmung Rechnung zu tragen, oder mit Splines, um verschiedene Regionen mit einem anderen regulierenden Modell zu berücksichtigen. Eine LOESS-Passung ist eine lokal bewegte gewichtete Regression, die auf den ursprünglichen Datenpunkten basiert. Whats that mean A LOESS fit gibt die ursprünglichen X - und Y-Werte sowie einen Satz von Output-X-Werten ein, für die neue Y-Werte berechnet werden (in der Regel werden die gleichen X-Werte für beide, aber oft weniger X-Werte für passende XY-Paare verwendet Wegen der erhöhten Rechenleistung). Für jeden Ausgabe-X-Wert wird ein Teil der Eingangsdaten verwendet, um einen Fit zu berechnen. Der Teil der Daten, im allgemeinen 25 bis 100, aber typischerweise 33 oder 50, ist lokal, dh es ist derjenige Teil der ursprünglichen Daten, der am nächsten zu jedem bestimmten Ausgangswert X liegt. Es ist eine bewegliche Passform, da jeder Ausgang X-Wert eine andere Teilmenge der Originaldaten mit unterschiedlichen Gewichten erfordert (siehe nächster Absatz). Diese Untermenge von Eingangsdatenpunkten wird verwendet, um eine gewichtete Regression durchzuführen, wobei Punkte am nächsten zu dem Ausgang X-Wert mit größerem Gewicht sind. Diese Regression ist in der Regel erster Ordnung zweiter Ordnung oder höher möglich, erfordert jedoch eine höhere Rechenleistung. Der Y-Wert dieser gewichteten Regression, der an dem Ausgang X berechnet wird, wird als der Modell-Y-Wert für diesen X-Wert verwendet. Die Regression wird an jedem Ausgabe-X-Wert neu berechnet, um einen vollständigen Satz von Ausgabe-Y-Werten zu erzeugen. Die Differenz aus Moving Average (Zeitreihe) Funktion berechnet die Differenz zwischen einem Wert und seiner Zeitreihe gleitenden Durchschnitt. Parameter ------------------ Daten Die zu analysierenden Daten. Dies ist typischerweise ein Feld in einer Datenreihe oder ein berechneter Wert. Period Die Anzahl der Balken, die in den Durchschnitt aufgenommen werden sollen, einschließlich des aktuellen Wertes. Zum Beispiel enthält eine Periode von 3 den aktuellen Wert und die beiden vorherigen Werte. Funktion Wert ------------------------ Der Zeitreihenbewegungsdurchschnitt wird durch Anpassen einer linearen Regressionsgerade über die Werte für den gegebenen Zeitraum berechnet und dann bestimmt Den aktuellen Wert für diese Zeile. Eine lineare Regressionsgerade ist eine Gerade, die so nahe wie möglich an allen gegebenen Werten liegt. Der Zeitreihen-Gleitender Durchschnitt am Anfang einer Datenreihe ist nicht definiert, bis es genug Werte gibt, um den vorgegebenen Zeitraum zu füllen. Es ist anzumerken, dass sich ein Zeitreihenbewegungsdurchschnitt stark von anderen Arten von Bewegungsdurchschnitten unterscheidet, da der aktuelle Wert dem jüngsten Trend der Daten folgt, nicht einem tatsächlichen Durchschnitt der Daten. Aus diesem Grund kann der Wert dieser Funktion größer oder kleiner sein als alle Werte, die verwendet werden, wenn der Trend der Daten im Allgemeinen zunimmt oder abnimmt. Der Unterschied zum gleitenden Mittelwert ist der gleitende Mittelwert, der von dem aktuellen Wert subtrahiert wird. Verwendung ----------- Verschiebungsdurchschnitte sind nützlich zum Glätten von verrauschten Rohdaten, wie z. B. Tagespreisen. Die Preisdaten können von Tag zu Tag stark variieren, wodurch der Preis nach oben oder nach unten verschwindet. Mit Blick auf den gleitenden Durchschnitt des Preises, ein allgemeineres Bild der zugrunde liegenden Trends gesehen werden kann. Da bewegte Durchschnitte verwendet werden können, um Trends zu sehen, können sie auch verwendet werden, um zu sehen, ob Daten den Trend stecken. Dies macht den Unterschied aus dem gleitenden Durchschnitt nützlich für die Hervorhebung, wo die Daten brechen weg von der Trend. Was sind Beziehung und Differenz zwischen Zeitreihen und Regression Für Modelle und Annahmen. Ist es richtig, dass die Regressionsmodelle Unabhängigkeit zwischen den Ausgangsvariablen für verschiedene Werte der Eingangsgröße annehmen, während das Zeitreihenmodell nicht Was sind einige andere Unterschiede Es gibt eine Reihe von Ansätzen zur Zeitreihenanalyse, aber die beiden bekanntesten sind die Regression Methode und die Box-Jenkins (1976) oder ARIMA (AutoRegressive Integrated Moving Average) Methode. Dieses Dokument führt die Regressionsmethode ein. Ich halte die Regressionsmethode weit überlegen für ARIMA für drei wichtige Gründe, die ich nicht ganz verstehen, was die Regressionsmethode für Zeitreihen auf der Website ist, und wie es sich von der Box-Jenkins oder ARIMA-Methode unterscheidet. Ich schätze, wenn jemand einige Einblicke auf diesen Fragen geben kann. Danke und Grüße Ich glaube wirklich, das ist eine gute Frage und verdient eine Antwort. Der Link zur Verfügung gestellt wird von einem Psychologen, der behauptet, dass einige home-brew Methode ist eine bessere Art und Weise der Zeitreihe-Analyse als Box-Jenkins ist geschrieben. Ich hoffe, dass mein Versuch, eine Antwort zu ermutigen, andere, die mehr wissen über Zeitreihen sind, dazu beitragen. Aus seiner Einleitung sieht es so aus, als würde Darlington den Ansatz der Anpassung eines AR-Modells durch kleinste Quadrate meistern. Das heißt, wenn Sie das Modell zt alpha1 z cdots alphak z varepsilont an die Zeitreihe zt anpassen wollen, können Sie einfach die Serie zt auf der Serie mit Verzögerung 1, Verzögerung 2 und so weiter bis zu Verzögerung k berechnen Gewöhnlichen multiplen Regression. Dies ist sicherlich erlaubt in R, seine sogar eine Option in der Ar-Funktion. Ich testete es, und es neigt dazu, ähnliche Antworten auf die Standard-Methode für die Anpassung eines AR-Modells in R. Er befürwortet auch regressing zt auf Dinge wie t oder Befugnisse von t, um Trends zu finden. Auch dies ist absolut in Ordnung. Viele Zeitreihen besprechen dies, zum Beispiel Shumway-Stoffer und Cowpertwait-Metcalfe. Typischerweise kann eine Zeitreihenanalyse entlang der folgenden Zeilen verlaufen: Sie finden einen Trend, entfernen Sie ihn und passen Sie dann ein Modell an die Residuen an. Aber es scheint, wie er auch befürwortet über-Anpassung und dann mit der Verringerung der Mittel-quadratischen Fehler zwischen der eingebauten Serie und die Daten als Beweis dafür, dass seine Methode besser ist. Zum Beispiel: Ich fühle mich korrektrams sind jetzt veraltet. Ihr primärer Zweck war, den Arbeitnehmern zu ermöglichen, zu erraten, welche Modelle am besten zu den Daten passen, aber die Geschwindigkeit der modernen Computer (zumindest in der Regression, wenn nicht in der Zeitreihenmodell-Anpassung) ermöglicht es einem Arbeiter, einfach mehrere Modelle zu passen und genau zu sehen, wie Jeder passt, wie durch mittleren quadratischen Fehler gemessen. Die Frage der Kapitalisierung nach Zufall ist für diese Wahl nicht relevant, da beide Methoden für dieses Problem gleichermaßen anfällig sind. Dies ist keine gute Idee, weil der Test eines Modells soll, wie gut es prognostizieren kann, nicht, wie gut es passt die vorhandenen Daten. In seinen drei Beispielen verwendet er einen angepassten Mittelwertquadratfehler als Kriterium für die Qualität der Passform. Natürlich wird die Übermodellierung eines Modells eine In-Sample-Schätzung des Fehlers kleiner machen, so dass seine Behauptung, dass seine Modelle besser sind, weil sie weniger RMSE haben, falsch ist. Kurzum, da er das falsche Kriterium für die Beurteilung, wie gut ein Modell ist, verwendet, erreicht er die falschen Schlüsse über die Regression gegen ARIMA. Id wetten, dass, wenn er die prädiktive Fähigkeit der Modelle statt getestet hätte, wäre ARIMA auf die Spitze kommen. Vielleicht kann jemand es versuchen, wenn sie Zugang zu den Büchern haben, die er hier erwähnt. Ergänzend: Für mehr über die Regression Idee, möchten Sie vielleicht auschecken ältere Zeitreihen Bücher, die geschrieben wurden, bevor ARIMA wurde die beliebteste. Zum Beispiel, Kendall, Time-Series. 1973, Kapitel 11 hat ein ganzes Kapitel über diese Methode und Vergleiche mit ARIMA. Soweit ich sagen kann, hat der Autor in einer Peer-Review-Publikation seine Home-Brew-Methode nie beschrieben und Verweise auf und aus der statistischen Literatur erscheinen minimal und seine Hauptpublikationen zu methodischen Themen reichen bis in die 70er Jahre zurück. Streng genommen, nichts davon beweist alles, aber ohne genügend Zeit oder Sachkenntnis, um die Ansprüche selbst zu beurteilen, würde ich extrem widerwillig sein, irgendwelche von ihr zu verwenden. Ndash Gala Jul 18 13 bei 11:31

No comments:

Post a Comment