Monday 24 July 2017

Moving Average Technik

Geschichte und Hintergrund, die zuerst mit bewegten Durchschnitten kamen Technische Analytiker haben mit bewegten Durchschnitten jetzt für mehrere Jahrzehnte. Sie sind so allgegenwärtig in unserer Arbeit, dass die meisten von uns nicht wissen, woher sie kamen. Statistiker kategorisieren Moving Averages als Teil einer Familie von Werkzeugen für ldquoTime Series Analysisrdquo. Andere in dieser Familie sind: ANOVA, das arithmetische Mittel, Korrelationskoeffizient, Kovarianz, Unterschied Tisch, der kleinsten Quadrate, Maximum Likelihood, gleitender Durchschnitt, Periodogramm, Prediction Theorie, Zufallsvariable, Random Walk, Rest, Varianz. Lesen Sie mehr über jede dieser und ihre Definitionen bei Wolfram. Die Entwicklung des ldquomoving averagerdquo geht auf das Jahr 1901 zurück, obwohl der Name später angewendet wurde. Vom Mathematikhistoriker Jeff Miller: BEWEGLICHES DURCHSCHNITT. Diese Technik zum Glätten von Datenpunkten wurde jahrzehntelang verwendet, bevor dieses oder irgendein allgemeiner Begriff in Gebrauch kam. 1909 GU Yule (Journal of the Royal Statistical Society. 72, 721-730) beschreiben die ldquoinstantaneous averagesrdquo RH Hooker 1901 berechnet als ldquomoving-averages. rdquo Yule nicht den Begriff in seinem Lehrbuch übernehmen, aber es trat Zirkulation durch WI Kingrsquos Elemente der statistischen Methode (1912). ldquoMoving averagerdquo auf eine Art von stochastischen Prozess bezieht, ist eine Abkürzung von H. Woldrsquos ldquoprocess averagerdquo (Eine Studie in der Analyse von stationären Zeitreihen (1938)) zu bewegen. Wold beschrieb, wie spezielle Fälle des Prozesses in den 1920er Jahren von Yule (in Verbindung mit den Eigenschaften der variierenden Differenzkorrelationsmethode) und Slutsky John Aldrich untersucht worden waren. Von StatSoft Inc. kommt diese Beschreibung von Exponential Smoothing. Die eine von mehreren Techniken für die Gewichtung von Vergangenheit Daten unterschiedlich ist: ldquoExponentielle Glättung hat sich als Prognosemethode für eine Vielzahl von Zeitreihen-Daten sehr beliebt. Historisch wurde das Verfahren unabhängig von Robert Goodell Brown und Charles Holt entwickelt. Brown arbeitete für die US-Marine während des Zweiten Weltkriegs, wo seine Aufgabe war es, ein Tracking-System für Brandbekämpfung Informationen zur Berechnung der Lage der U-Boote zu entwerfen. Später setzte er diese Technik auf die Prognose der Ersatzteilnachfrage (ein Bestandskontrollproblem). Er beschrieb diese Ideen in seinem Buch 1959 über die Bestandskontrolle. Holtrsquos Forschung durch das Office of Naval Research unabhängig gesponsert wurde, entwickelte er Modelle der exponentiellen Glättung für konstante Prozesse verarbeitet, mit linearen Trends und saisonale data. rdquo Holtrsquos Papier, ldquoForecasting Seasonals und Trends von Exponentiell gewichtete gleitende Averagesrdquo 1957 in O. N.R. veröffentlicht wurde Forschung Memorandum 52, Carnegie Institute of Technology. Es gibt es nicht online kostenlos, aber kann von denen mit Zugang zu akademischen Papier Ressourcen zugänglich sein. Nach unserem Wissen war P. N. (Pete) Haurlan die erste, die exponentielle Glättung für die Verfolgung der Aktienkurse verwendet. Haurlan war ein tatsächlicher Raketenwissenschaftler, der für JPL in den frühen sechziger Jahren arbeitete und folglich hatte er Zugang zu einem Computer. Er nannte sie nicht ldquoexponential beweglicher Durchschnitte (EMAs) rdquo oder das mathematisch modische ldquoexponentiell gewichtete gleitende Durchschnitte (EWMAs) rdquo. Stattdessen nannte er sie ldquoTrend Valuesrdquo und nannte sie durch ihre Glättungskonstanten. So, was heute allgemein als eine 19-Tage-EMA bezeichnet wird, nannte er ein ldquo10 Trendrdquo. Da seine Terminologie das Original für eine solche Verwendung bei der Aktienkursverfolgung war, verwenden wir daher diese Terminologie in unserer Arbeit weiter. Haurlan hatte EMAs bei der Entwicklung der Tracking-Systeme für Raketen eingesetzt, die zum Beispiel ein sich bewegendes Objekt wie einen Satelliten, einen Planeten usw. abfangen mussten. Wenn der Weg zum Ziel ausgeschaltet wäre, müsste dann irgendeine Art von Eingabe angewendet werden An den Lenkmechanismus, aber sie wollten nicht übertreiben oder untertreiben, dass Eingang und entweder instabil oder nicht drehen. Daher war die richtige Art der Glättung von Dateneingaben hilfreich. Haurlan nannte dieses ldquoProportional Controlrdquo, was bedeutet, dass der Lenkmechanismus nicht versuchen würde, den gesamten Tracking-Fehler auf einmal auszugleichen. EMAs waren leichter in frühe analoge Schaltungen als andere Filtertypen zu codieren, da sie nur zwei Stücke von variablen Daten benötigen: den aktuellen Eingangswert (z. B. Preis, Position, Winkel usw.) und den vorherigen EMA-Wert. Die Glättungskonstante wäre fest verdrahtet in die Schaltungsanordnung, so daß der ldquomemoryrdquo nur diese beiden Variablen verfolgen muß. Ein einfacher gleitender Durchschnitt erfordert andererseits das Verfolgen aller Werte innerhalb der Rückblickperiode. Also ein 50-SMA würde bedeuten, die Verfolgung von 50 Datenpunkten, dann Mittelung sie. Es bindet viel mehr Rechenleistung. Mehr über EMAs im Vergleich zu Simple Moving Averages (SMAs) bei Exponential versus Simple. Haurlan gründete den Trade Levels-Newsletter in den 1960er Jahren, so dass JPL für die lukrativere Arbeit. Sein Rundschreiben war ein Sponsor der Charting The Market TV-Show auf KWHY-TV in Los Angeles, die erste TA-TV-Show, die von Gene Morgan. Die Arbeit von Haurlan und Morgan waren ein großer Teil der Inspiration hinter Sherman und Marian McClellanrsquos Entwicklung der McClellan-Oszillator und Summation Index, der exponentielle Glättung von Advance-Decline Daten beziehen. Sie können ein 1968-Heft mit dem Titel Measuring Trend Values ​​lesen, das von Haurlan ab Seite 8 des MTA Award Handout veröffentlicht wird. Die wir für die Teilnehmer der MTA-Konferenz 2004 vorbereiteten, wo Sherman und Marian mit dem MTArsquos Lifetime Achievement Award ausgezeichnet wurden. Haurlan listet nicht die Herkunft dieser mathematischen Technik, sondern stellt fest, dass es in der Luft - und Raumfahrttechnik seit vielen Jahren verwendet wurde. Bei der Berechnung eines gleitenden Durchschnitt, die Platzierung der Mittelwert in der mittleren Zeitspanne macht Sinn Im vorherigen Beispiel haben wir berechnet Durchschnitt der ersten 3 Zeitabschnitte und platzierte sie neben Periode 3. Wir konnten den Durchschnitt in der Mitte des Zeitintervalls von drei Perioden platziert haben, das heißt, neben Periode 2. Dies funktioniert gut mit ungeraden Zeitperioden, aber nicht So gut für gleichmäßige Zeiträume. Also wo würden wir den ersten gleitenden Durchschnitt platzieren, wenn M 4 Technisch, würde der Moving Average bei t 2,5, 3,5 fallen. Um dieses Problem zu vermeiden, glätten wir die MAs unter Verwendung von M 2. So glätten wir die geglätteten Werte Wenn wir eine gerade Anzahl von Ausdrücken mitteln, müssen wir die geglätteten Werte glätten Die folgende Tabelle zeigt die Ergebnisse unter Verwendung von M 4.Smoothing-Daten entfernt zufällige Variation und Zeigt Trends und zyklische Komponenten Inhärent in der Sammlung von Daten über die Zeit genommen ist eine Form der zufälligen Variation. Es gibt Methoden zur Verringerung der Annullierung der Wirkung aufgrund zufälliger Variation. Eine häufig verwendete Technik in der Industrie ist Glättung. Diese Technik zeigt, wenn sie richtig angewendet wird, deutlicher den zugrunde liegenden Trend, saisonale und zyklische Komponenten. Es gibt zwei verschiedene Gruppen von Glättungsmethoden Mittelungsmethoden Exponentielle Glättungsmethoden Mittelwertbildung ist der einfachste Weg, um Daten zu glätten Wir werden zunächst einige Mittelungsmethoden untersuchen, z. B. den einfachen Mittelwert aller vergangenen Daten. Ein Manager eines Lagers möchte wissen, wie viel ein typischer Lieferant in 1000-Dollar-Einheiten liefert. Heshe nimmt eine Stichprobe von 12 Lieferanten zufällig an und erhält die folgenden Ergebnisse: Der berechnete Mittelwert oder Mittelwert der Daten 10. Der Manager entscheidet, diese als Schätzung der Ausgaben eines typischen Lieferanten zu verwenden. Ist dies eine gute oder schlechte Schätzung Mittel quadratischen Fehler ist ein Weg, um zu beurteilen, wie gut ein Modell ist Wir berechnen die mittlere quadratische Fehler. Der Fehler true Betrag verbraucht minus der geschätzten Betrag. Der Fehler quadriert ist der Fehler oben, quadriert. Die SSE ist die Summe der quadratischen Fehler. Die MSE ist der Mittelwert der quadratischen Fehler. MSE Ergebnisse zum Beispiel Die Ergebnisse sind: Fehler und quadratische Fehler Die Schätzung 10 Die Frage stellt sich: Können wir das Mittel verwenden, um Einkommen zu prognostizieren, wenn wir einen Trend vermuten Ein Blick auf die Grafik unten zeigt deutlich, dass wir dies nicht tun sollten. Durchschnittliche Gewichtungen alle früheren Beobachtungen gleich In Zusammenfassung, wir sagen, dass die einfache Mittelwert oder Mittelwert aller früheren Beobachtungen ist nur eine nützliche Schätzung für die Prognose, wenn es keine Trends. Wenn es Trends, verwenden Sie verschiedene Schätzungen, die den Trend berücksichtigen. Der Durchschnitt wiegt alle früheren Beobachtungen gleichermaßen. Zum Beispiel ist der Durchschnitt der Werte 3, 4, 5 4. Wir wissen natürlich, dass ein Durchschnitt berechnet wird, indem alle Werte addiert werden und die Summe durch die Anzahl der Werte dividiert wird. Ein anderer Weg, den Durchschnitt zu berechnen, besteht darin, daß jeder Wert durch die Anzahl von Werten geteilt wird, oder 33 43 53 1 1.3333 1.6667 4. Der Multiplikator 13 wird das Gewicht genannt. Im Allgemeinen: bar frac Summe links (frac rechts) x1 links (frac rechts) x2,. ,, Links (frac rechts) xn. Die (links (frac rechts)) sind die Gewichte und summieren sich natürlich auf 1.


No comments:

Post a Comment