Różnica Między Ruchem Średnim A Autoregresywnym


Wprowadzenie do modeli nierównomiernych ARIMA. RAZDA ARIMA Procesy prognozowania Modele ARIMA są, teoretycznie, najbardziej ogólną klasą modeli prognozowania szeregów czasowych, które mogą być stacjonarne poprzez różnicowanie w razie konieczności, być może w połączeniu z transformacjami nieliniowymi takie jak rejestrowanie lub deflacja w razie potrzeby Zmienna losowa, która jest szeregiem czasowym, jest stacjonarna, jeśli jej właściwości statystyczne są stałe w czasie A stacjonarne serie nie mają tendencji, jej wahania wokół jego średniej mają stałą amplitudę i poruszają się w spójny sposób tzn. krótkoterminowe wzorce czasu losowego zawsze wyglądają identycznie w sensie statystycznym. Ten ostatni warunek oznacza, że ​​jego korelacje autokorelacji z własnymi wcześniejszymi odchyleniami od średniej pozostają niezmienne w czasie lub równoważnie, że jego widmo mocy pozostaje stałe w czasie A losowo zmienna tego formularza może być postrzegana jako zwykła kombinacja sygnału i hałasu, a sygnał, jeśli jest widoczny, może być patt ern szybkiego lub powolnego przecięcia średniego lub oscylacji sinusoidalnej lub szybkiej zmiany na znaku, a także może mieć składnik sezonowy. Model ARIMA może być postrzegany jako filtr, który próbuje oddzielić sygnał od szumu, a następnie sygnał ekstrapolowane w przyszłość w celu uzyskania prognoz. Równanie ARIMA dla serii czasów stacjonarnych jest liniowym równaniem regresji typu, w którym predykatory składają się z opóźnień w zmiennej zależnej i / lub opóźnień prognozowanych błędów. Prawdopodobnie wartość Y stała lub ważona suma jednej lub kilku ostatnich wartości Y i lub ważonej sumy jednej lub więcej wartości błędów. Jeśli predykatory składają się tylko z opóźnionych wartości Y, jest to czysty, autoregresywny samoregulowany model, która jest tylko specjalnym przypadkiem modelu regresji i może być wyposażona w standardowe oprogramowanie regresyjne Na przykład, autoregresywny model AR1 dla pierwszego rzędu jest prostym modelem regresji, w którym zmienna niezależna i s tylko Y z opóźnieniem o jeden okres LAG Y, 1 w Statgraphics lub YLAG1 w RegressIt Jeśli niektóre predykatory są błędami, model ARIMA nie jest modelem regresji liniowej, ponieważ nie ma sposobu na określenie błędu ostatniego okresu jako niezależna zmienna błędy muszą być obliczane okresowo, gdy model jest dopasowany do danych Z technicznego punktu widzenia, problem z wykorzystaniem opóźnionych błędów jako predykcyjnych jest taki, że przewidywania modelu nie są funkcjami liniowymi współczynniki, nawet jeśli są to liniowe funkcje poprzednich danych Więc współczynniki w modelach ARIMA, które zawierają opóźnione błędy, należy oszacować przez nieliniowe metody optymalizacyjne, a nie po prostu rozwiązać system równań. Akronim ARIMA oznacza automatyczną regresywną integrację Przenoszenie średnich opóźnień szeregów stacjonarnych w równaniu prognozowania nazywane są określeniami autoregresywnymi, opóźnienia błędów prognozowania nazywane są średnią ruchomej i szereg czasowy, który wymaga być rozróżniana stacjonarnie mówi się, że jest zintegrowaną wersją stacjonarnych modeli losowych i przypadkowych modeli, modeli autoregresji i wykładniczych modeli wygładzania są szczególnymi przypadkami modeli ARIMA. Niedemysłowy model ARIMA jest klasyfikowany jako ARIMA p, d, q model, gdzie. p jest liczbą terminów autoregresji. d jest liczbą nierównomiernych różnic potrzebnych do stacjonarności, a. q jest liczbą opóźnionych błędów prognozy w równaniu predykcyjnym. Równanie prognozowania jest skonstruowane w następujący sposób Po pierwsze, niech y oznacza dt różnicę Y, która oznacza. Zwróć uwagę, że druga różnica Y przypadku d2 nie różni się od 2 okresów temu Raczej, jest pierwszą różniczką pierwszej różnicy dyskretny analog drugiej pochodnej, tzn. lokalne przyspieszenie szeregu, a nie jego lokalny trend. Jeśli chodzi o y, to ogólne równanie prognozowania jest tutaj. Tutaj poruszają się średnie parametry s tak, że ich znaki są ujemne w eq po konwencji wprowadzonej przez Box i Jenkins Niektórzy autorzy i oprogramowanie, w tym język programowania R, definiują je tak, że mają znaki plus Gdy faktyczne liczby są podłączone do równania, nie ma niejasności, ale ważne jest, aby wiedzieć, która konwencja używanie oprogramowania podczas odczytywania danych wyjściowych Często parametry są oznaczone przez AR 1, AR 2, i MA 1, MA 2 itd. Aby zidentyfikować odpowiedni model ARIMA dla Y, rozpoczynasz od określenia kolejności różnicowania d wymagających stacjonować serie i usunąć cechy brutto sezonowości, być może w połączeniu z transformacją stabilizującą wahania, taką jak rejestrowanie lub deflacja Jeśli zatrzymasz się w tym punkcie i przewidujesz, że zróżnicowane serie są stałe, masz tylko dopasowany losowy chód lub losowo model tendencji Jednakże serie stacjonarne mogą wciąż zawierać błędy autokorelacyjne, co sugeruje, że potrzebna jest pewna liczba terminów AR1 i / lub niektórych numerów MA q1 w równaniu prognozowania. Proces wyznaczania wartości p, d i q najlepszych dla danej serii czasowej zostanie omówiony w dalszych sekcjach notatek, których łącza są u góry tej strony, ale podgląd niektórych typów niejednorodnych modeli ARIMA, które są powszechnie spotykane, podano poniżej. Model z autodestruacją z pierwszego rzędu, o wartości 100,0%, jeśli seria jest stacjonarna i autokorelowana, być może można ją przewidzieć jako wielokrotność swojej poprzedniej wartości, plus stała Równanie prognozowania w tym przypadku jest to, co jest regresowane przez siebie na pewien czas opóźnione przez jeden okres Jest to stały model ARIMA 1,0,0 Jeśli średnia Y jest równa zeru, wówczas nie będzie uwzględnione określenie stałe. Jeśli nachylenie współczynnik 1 jest dodatni i mniejszy niż 1 na wielkość musi być mniejszy niż 1 w skali, jeśli Y jest nieruchoma, model opisuje zachowanie średniego zwrotu, w którym przewiduje się, że wartość następnego okresu 1 razy jest daleko od średniej ta wartość okresu Jeśli 1 jest ujemna, to przewiduje zachowanie średnie z odwróceniami oznaczeń, tzn. przewiduje również, że Y będzie poniżej średniego następnego okresu, jeśli jest powyżej średniej tego okresu. W modelu autoregresji drugiego rzędu ARIMA 2,0,0 będzie Y t-2 po prawej, a tak dalej W zależności od oznakowania i wielkości współczynników, model ARIMA 2,0,0 może opisywać system, którego średnie odwrócenie zachodzi w sinusoidalnie oscylujący sposób, podobnie jak ruch masy na sprężynie poddawanej przypadkowemu wstrząsowi. ARIMA 0,1,0 przypadkowy spacer Jeśli seria Y nie jest stacjonarna, najprostszym modelem jest model przypadkowego spaceru, który może być uważany za ograniczający przypadek model AR1, w którym współczynnik autoregresji jest równy 1, tj. seria z nieskończenie powolnym średnim odwróceniem Współczynnik predykcji dla tego modelu może być zapisany jako. gdzie stały termin to średnia zmiana między okresem, tj. długoterminowa dryft w Y Ten model może być zamontowany jako niekontrolowany model graniczny, w którym pierwsza różnica Y jest zmienną zależną Ponieważ uwzględnia ona jedynie różnicę pozaserwową i okres stały, jest on klasyfikowany jako model ARIMA 0,1,0 ze stałą Model przypadkowego chodu bez modelu model ARIMA 0,1,0 bez stałej. ARIMA 1,1,0 zróżnicowany model autoregresji pierwszego rzędu Jeśli błędy modelu losowego spaceru są autokorelowane, być może problem może zostać rozwiązany przez dodanie jednego opóźnienia zmiennej zależnej do równanie predykcji - tzn. przez regresję pierwszej różnicy Y na sobie opóźnionej przez jeden okres Spowodowałoby to poniższe równanie predykcji, które można przestawić na. Jest to model autoregresji pierwszego rzędu z jednym porządkiem nierównomiernego różnicowania i stałym określeniem - model ARIMA 1,1,0.ARIMA 0,1,1 bez stałego prostego wygładzania wykładniczego Inna strategia korygowania błędów autokorelacji w modelu losowego spaceru sugeruje prosty wykładniczy model wygładzania Przypomnijmy, że dla niektórych nieustannych szeregów czasowych np. tych, które wykazują hałaśliwą fluktuacje wokół średniej różniących się powoli, model losowego chodu nie wykonuje się, a także średnia ruchoma poprzednich wartości Innymi słowy, a nie biorąc pod uwagę najnowsze obserwacje jako prognozę następnej obserwacji , lepiej jest użyć średniej z ostatnich kilku obserwacji w celu odfiltrowania szumu i dokładniej oszacować lokalną średnią Prosty model wygładzania wykładniczego wykorzystuje wykładnikowaną ważoną średnią ruchową poprzednich wartości, aby osiągnąć ten efekt. Równanie predykcji dla prosty model wyrównywania wykładów można zapisać w formie matematycznie równoważnych, z których jedna jest tak zwana korekcją błędów, w której poprzednia prognoza jest dostosowywana w kierunku popełnionego błędu. Ponieważ e t-1 Y t - 1 - t-1 z definicji, może być przepisana jako., Co oznacza równanie ARIMA 0,1,1 - bez zachowania stałej prognozy równe 1 1 - Oznacza to, że można zmieścić prostą wykładniczą smoo rzecz biorąc, określając ją jako model ARIMA 0,1,1 bez stałej, a szacowany współczynnik MA1 odpowiada 1-minus-alfa w formule SES Przypomnijmy, że w modelu SES średni wiek danych w 1- prognozy na okres poprzedni 1 oznaczają, że będą one wykazywały tendencję do opóźnienia w trendach lub punktach zwrotnych o około 1 okresy. Wynika z tego, że średni wiek danych w prognozie 1-wyprzedzającej ARIMA 0,1,1 - stałym modelem jest 1 1 - 1 Na przykład, jeśli 1 0 8, średni wiek wynosi 5 Kiedy 1 zbliża się do 1, ARIMA 0,1,1 - bez modelu stałego staje się bardzo długoterminową średnią ruchoma, a jako że 1 podejście 0 staje się modelem losowo-chodnik bez drift. Jest to najlepszy sposób poprawienia autokorelacji dodawania terminów AR lub dodania terminów macierzystych W poprzednich dwóch omawianych modelach problem autokorelacji błędów w modelu przypadkowego spaceru został ustalony na dwa różne sposoby, dodając lagged wartości zróżnicowanych serii do równania lub dodając opóźnioną wartość foreca st error Jakie podejście jest najlepszym Zasadą dotyczącą tej sytuacji, która zostanie szczegółowo omówiona później, jest pozytywna autokorelacja najlepiej traktowana przez dodanie terminu AR do modelu, a negatywna autokorelacja zwykle jest najlepiej leczona przez dodając termin MA W serii czasów gospodarczych i gospodarczych, ujemna autokorelacja często pojawia się jako artefakt różnicowania Ogólnie rzecz biorąc, rozróżnienie zmniejsza dodatnią autokorelację, a nawet może powodować przejście z pozytywnej na ujemną autokorelację Więc model ARIMA 0,1,1 w które różni się terminem magisterskim, jest częściej stosowane niż model ARIMA 1,1,0.ARIMA 0,1,1 przy stałym prostokątnym wygładzaniu wykładniczym przy wzroście Wdrażając model SES jako model ARIMA, rzeczywiście zyskujesz elastyczność Przede wszystkim szacowany współczynnik MA 1 może być ujemny, co odpowiada współczynnikowi wygładzania większym niż 1 w modelu SES, co zwykle nie jest dozwolone w procedurze dopasowania modelu SES Sec ond, możesz oszacować przeciętny trend niezerowy Model ARIMA 0,1,1 ze stałą ma równanie predykcyjne. Jednorazowe wyprzedzanie prognozy z tego modelu są jakościowo podobne do modelu SES, z wyjątkiem tego, że trajektoria prognoz długoterminowych jest zazwyczaj linią ukośną, której nachylenie jest równe mu, a nie w linii poziomej. ARIMA 0,2,1 lub 0, 2,2 bez stałego liniowego wygładzania wykładniczego Liniowe modele wygładzania wykładniczego są modelami ARIMA, które wykorzystują dwie nierównomierne różnice w połączeniu z pojęciami drugorzędnymi Druga różnica serii Y to nie tylko różnica między Y i sobą opóźniona przez dwa okresy, ale raczej jest pierwsza różnica pierwszej różnicy - ie zmiana w Y w okresie t Tak więc druga różnica Y w okresie t jest równa Y t - Y t-1 - Y t-1 - Y t-2 Y t-2Y t-1 Y t-2 Drugą różnicą funkcji dyskretnych jest analogou s do drugiej pochodnej funkcji ciągłej mierzy przyspieszenie lub krzywiznę w funkcji w danym punkcie czasowym. Model ARIMA 0,2,2 bez stałej przewiduje, że druga różnica serii jest równa liniowej funkcji ostatniego dwa błędy prognozy, które mogą być przekształcone jako. w 1 i 2 są współczynnikami MA 1 i MA 2 Jest to ogólny linearny wykładnik wykładniczy równomierny model wygładzania zasadniczo taki sam jak model Holt, a model Brown's jest szczególnym przypadkiem Używa wykładniczej wagi średnie kroczące w celu oszacowania zarówno poziomu lokalnego, jak i lokalnego trendu Szereg długoterminowych prognoz tego modelu zbliża się do prostej, której nachylenie zależy od średniej tendencji obserwowanej pod koniec serii. ARIMA 1,1,2 bez ciągły trend tłumienia liniowego tłumienia wykładów. Ten model ilustrują towarzyszące slajdy w modelach ARIMA, które ekstrapolują lokalny trend na końcu serii, ale spłaszczają go w dłuższych horyzontach czasowych, aby wprowadzić ote konserwatyzmu, praktyce, która ma empiryczne wsparcie Zobacz artykuł o tym, dlaczego Damped Trend działa przez Gardner i McKenzie oraz artykuł z Golden Rule autorstwa Armstronga i innych o szczegóły. Zazwyczaj zaleca się przyklejenie się do modeli, w których co najmniej jeden z p i q nie jest większa niż 1, tzn. nie próbuj dopasować modelu, takiego jak ARIMA 2,1,2, ponieważ prawdopodobnie doprowadzi to do nadmiernych i ogólnych problemów, które są omówione bardziej szczegółowo w uwagach dotyczących matematyki struktura modeli ARIMA. Implementacja arkuszy ARIMA, takie jak te opisane powyżej, są łatwe do wdrożenia w arkuszu kalkulacyjnym. Równanie predykcji jest po prostu równaniem liniowym, które odnosi się do poprzednich wartości oryginalnych serii czasowych i wartości przeszłych błędów. Dzięki temu można skonfigurować arkusz kalkulacyjny ARIMA przez przechowywanie danych w kolumnie A, formuła prognozowania w kolumnie B oraz dane o błędach pomniejszone o prognozy w kolumnie C formuła prognozowania w typowej komórce w kolumnie B będzie po prostu linearnym wyrażeniem n odnosząc się do wartości w poprzednich wierszach kolumn A i C, pomnożonych przez odpowiednie współczynniki AR lub MA przechowywane w komórkach gdzie indziej w arkuszu kalkulacyjnym. Określenie liczby wzorców AR lub MA w modelu ARIMA. ACF i PACF Po serii czasów została stacjonowana przez różnicowanie, następnym krokiem w dopasowywaniu modelu ARIMA jest ustalenie, czy wymagane są AR lub MA, aby poprawić autokorelację pozostałą w serii zróżnicowanych Oczywiście, przy użyciu oprogramowania takiego jak Statgraphics, można po prostu spróbować różnych kombinacji terminy i zobacz, co działa najlepiej Ale jest bardziej systematyczny sposób to zrobić Poprzez przeglądanie funkcji autokorelacji ACF i częściowej autokorelacji PACF działek zróżnicowanych serii można wstępnie zidentyfikować liczbę wymaganych terminów AR i / lub MA już zaznajomiony z wykresem ACF jest to jedynie wykres słupkowy współczynników korelacji między szeregiem czasowym a opóźnieniami samej siebie Wykres PACF jest wykresem częściowym współczynniki korelacji pomiędzy serią a jej opóźnieniami. Ogólnie rzecz biorąc, częściowa korelacja między dwiema zmiennymi to ilość korelacji między nimi, której nie wyjaśniono przez ich wzajemne korelacje z określonym zbiorem innych zmiennych Na przykład, jeśli regresja zmiennej Y na innych zmiennych X1, X2 i X3, częściowa korelacja pomiędzy Y i X3 to kwota korelacji między Y i X3, która nie jest wyjaśniona przez ich wspólne korelacje z X1 i X2 Ta częściowa korelacja może być obliczona jako pierwiastek kwadratowy Zmniejszenie wariancji, które uzyskuje się przez dodanie X3 do regresji Y na X1 i X2. Częściowa korelacja automatyczna to kwota korelacji między zmienną a opóźnieniem samego siebie, której nie wyjaśniono przez korelacje we wszystkich regułach dolnego rzędu Autokorelacja szeregów czasowych Y w punkcie opóźnienia 1 jest współczynnikiem korelacji między Y t i Y t - 1, co prawdopodobnie również jest zależnością między Y t-1 i Y t -2 Ale jeśli Y t jest korelatem d z Y t-1 i Y t-1 jest w równym stopniu skorelowana z Y t-2, to powinniśmy też spodziewać się korelacji między Y t i Y t-2 W rzeczywistości kwota korelacji, którą powinniśmy spodziewać się w punkcie 2, jest dokładnie kwadrat korelacji lag-1 W ten sposób korelacja w punkcie 1 opóźnia się do opóźnienia 2 i przypuszczalnie do opóźnień wyższego rzędu Częściowa autokorelacja w punkcie 2 jest więc różnicą między rzeczywistą korelacją w punkcie 2 i oczekiwaną korelacją ze względu na propagowanie korelacji w opóźnieniu 1. Tuż przed dokonaniem jakiejkolwiek różniczki funkcja autokorelacji ACF serii UNITS jest autokorelatywna. Autokorelacje są istotne dla dużej liczby opóźnień - ale być może autokorelacje w przypadku opóźnień 2 i wyższych wynikają jedynie z propagowanie autokorelacji w punkcie opóźnienia 1 Potwierdza to wykres PACF. Zwróć uwagę, że wykres PACF ma znaczny skok tylko w punkcie 1, co oznacza, że ​​wszystkie autokorelacje wyższego rzędu są skutecznie wyjaśniane przez autokorelację lag-1. par W szczególności, autocorrelacje w punkcie opóźnienia k jest równe oszacowanemu współczynnikowi AR k w modelu autoregresji z k warunkami - tj. modelu regresji wielorakresowej w którym Y jest poddawane regresji na LAG Y, 1, LAG Y, 2, etc do LAG Y, k Tak więc dzięki zwykłej kontroli PACF można określić, ile ramek AR potrzebnych do wyjaśnienia wzoru autokorelacji w danym czasie jeśli częściowa autokorelacja jest znacząca w punkcie lag k i nie ma znaczenia przy każdym wyższym zleceniu, tj. jeśli PACF odcina się w opóźnieniu - to wskazuje, że należy spróbować dopasować autoregresywny model zamówienia. PACF Seria UNITS stanowi wyjątkowy przykład zjawiska cut-off, który ma bardzo duży skok przy opóźnieniu 1 i nie ma innych istotnych skoków, wskazując, że w przypadku braku różnic w modelu AR1 należy jednakże zastosować termin AR 1 w tym modelu będzie tu że współczynnik AR1, który jest wysokością skoku PACF na poziomie 1, będzie niemal dokładnie równy 1 Teraz równanie prognozowania dla modelu AR1 dla serii Y bez rozkazy różniczkujące. Jeżeli współczynnik AR 1 w tym równaniu jest równy 1, to jest równoważne przewidywaniu, że pierwsza różnica Y jest stała - tzn. jest równa równaniu modelu losowego spaceru ze wzrostem PACF serii UNITS mówi nam, że jeśli się nie różnimy, powinniśmy zmieścić model AR1, który okaże się równoważny z uzyskaniem pierwszej różnicy Innymi słowy, mówi nam, że UNITS naprawdę potrzebuje kolejność różnicowania, które mają być stacjonarne. Podpisy MA i MA Jeśli PACF wyświetli ostre odcięcie, podczas gdy ACF rozkłada się wolniej, tzn. ma znaczne skoki przy wyższych opóźnieniach, mówimy, że serie stacjonarne zawierają podpis AR, co oznacza, że ​​wzór autokorelacji może być wyjaśniać ed łatwiej przez dodanie terminów AR niż przez dodanie terminów MA Prawdopodobnie okaże się, że podpis ARC jest powszechnie związany z pozytywną autokorelacją w punkcie 1, tj. ma tendencję do pojawiania się w szeregach, które nieznacznie się różnią. Powodem jest to, że AR może działać jak cząstkowa różnica w równaniu prognozowania Na przykład w modelu AR1, termin AR działa jak pierwsza różnica, jeśli współczynnik autoregresji wynosi 1, nic nie robi, jeśli współczynnik autoregresji wynosi zero, a to zachowuje się jak cząstkowa różnica, jeśli współczynnik wynosi od 0 do 1 Więc jeśli serie są nieco nieznacznie odmienne, tzn. jeśli niestacjonarny wzór pozytywnej autokorelacji nie został całkowicie wyeliminowany, poprosi o częściową różnicę, wyświetlając podpis AR , mamy do czynienia z następującą zasadą określania, kiedy należy dodać AR. Reguła 6 Jeśli PACF z serii differenced wyświetli ostre odcięcie i (lub) opóźnienie autokorelacji lag-1 jest pozytywne - e jeśli serie wydają się nieco niedopuszczalne - rozważają dodanie terminu AR do modelu Opóźnienie, w którym PACF odcina, jest wskazaną liczbą terminów AR. Z zasadzie, dowolny wzorzec autokorelacji można usunąć z serii stacjonarnych, dodając wystarczająco dużo autoregresywne terminy opóźnienia serii stacjonarnych do równań prognozowania, a PACF informuje, ile takich terminów będzie prawdopodobnie potrzebnych. Jednak nie zawsze jest to najprostszy sposób wyjaśnienia danego wzoru autokorelacji czasami bardziej efektywne jest dodawanie terminów magisterskich opóźnienia błędów prognozy Funkcja autokorelacji ACF odgrywa tę samą rolę dla terminów MA, że PACF odgrywa rolę AR, tzn. ACF informuje, ile terminów MA będzie prawdopodobnie potrzebnych, aby usunąć pozostałą autokorelację z różnicą seria Jeśli autokorelacja jest znaczna w punkcie opóźnienia, ale nie na wyższych opóźnieniach - tzn. jeśli ACF zostanie odcięty w punkcie lag - oznacza to, że w równanie prognoz W tym ostatnim przypadku mówimy, że stacjonarne serie zawierają podpis MA, co oznacza, że ​​wzór matematyki można wyjaśnić łatwiej przez dodanie terminów MA niż przez dodanie terminów AR. Każdy podpis MA jest powszechnie związany z ujemną autokorelacją w punkcie opóźnienia 1 - to skłania się raczej do szeregu, które nieznacznie się różnią. Powodem tego jest to, że termin MA może częściowo anulować kolejność różnic w równaniu prognozowania. Aby to zobaczyć, pamiętaj, że model ARIMA 0,1,1 bez stałej jest równoznaczne z modelem Simple Exponential smoothing Model równań prognozowania dla tego modelu jest tam, gdzie współczynnik MA1 1 odpowiada ilości 1 - w modelu SES Jeśli 1 jest równe 1, odpowiada modelowi SES z 0, co jest tylko model CONSTANT, ponieważ prognoza jest nigdy nieaktualna Oznacza to, że gdy 1 jest równe 1, faktycznie anuluje się operację różnicującą, która normalnie umożliwia prognozowanie SES ponownego zakotwiczenia przy ostatniej obserwacji Z drugiej strony, jeśli średni współczynnik ruchomości jest równy 0, model ten zmniejsza się do modelu przypadkowego spaceru - tzn. pozostawia on samą operację różnicowania Więc jeśli 1 jest czymś większym niż 0, jeśli częściowo zrezygnowaliśmy z rozstrzygnięcia Jeśli serie już nieznacznie się różnią, tzn. jeśli wprowadzono negatywną autokorelację - poprosi o częściową rezygnację z odrzucenia różnicy, wyświetlając podpis MA. Dużo ramienia falującego jest tu bardziej rygorystyczne wyjaśnienie tego efektu znajduje się w strukturze matematycznej instrukcji ARIMA Models Poniżej znajduje się następująca zasada kciuka. Reguła 7 Jeśli ACF z serii differenced wyświetli ostre odcięcie i lub autokorelacja lag-1 minus - jeśli serie wydają się lekko odchylone - rozważają dodanie terminu "MA" do modelu "Opóźnienie, w którym ACF odcina" oznacza wskazaną liczbę terminów MA. A model dla serii UNITS - ARIMA 2,1, 0 Poprzednia y stwierdziliśmy, że seria UNITS potrzebowała co najmniej jednego rozkazu nierównomiernego różnicowania, który ma być stacjonarny Po dokonaniu jednej różnicy odmiennej - tzn. dopasowania modelu ARIMA 0,1,0 ze stałą - wykresy ACF i PACF wyglądają tak. korelacja w punkcie 1 jest znacząca i dodatnia, a PACF wykazuje ostrzejsze odcięcie niż ACF W szczególności, PACF ma tylko dwa istotne skoki, podczas gdy ACF ma cztery W ten sposób, zgodnie z powyższą regułą 7, podpis AR 2 Jeśli zatem ustalimy kolejność terminu AR na 2 - tj. dopasuj model ARIMA 2,1,0 - otrzymamy następujące wykresy ACF i PACF dla resztek. Autokorelacja w krytycznych momentach - a mianowicie opóźnienia 1 i 2 - zostały wyeliminowane, a nie ma wyraźnego wzorca w opóźnieniach wyższego rzędu Zauważa się, że wykresy czasowe pozostałości wykazują nieco uciążliwą tendencję do oddalania się od średniej. model działa jednak całkiem dobrze że współczynniki AR różnią się znacząco od zera, a odchylenie standardowe pozostałości zostało zredukowane z 1 54371 do 1 4215 prawie 10 przez dodanie terminów AR. Ponadto nie ma żadnego znaku jednostki organizacyjnej, ponieważ suma współczynników AR 0 252254 0 195572 nie jest zbliżona do 1 Korzenie jednostek są omówione bardziej szczegółowo poniżej Ogólnie wydaje się to dobrym modelem. Niezorganizowane prognozy dla modelu wykazują liniową tendencję wzrostową przewidzianą w przyszłości. Tendencja w prognozach długoterminowych wynika z faktu, że model zawiera jedną nierównomierną różnicę i stałą wersję model ten jest w zasadzie losowym krokiem z rozwojem, dostrojony przez dodanie dwóch terminów autoregresywnych - tj. Dwóch opóźnień w różnicowaniu serie Nachylenie prognoz długoterminowych, tj. średnie zwiększenie z jednego okresu do drugiego, jest równe średniemu podsumowaniu modelu 0 467566 Równanie prognozowania to gdzie stały szczyt modelu ary 0 258178, 1 jest współczynnikiem AR 1 0 25224 i 2 jest współczynnikiem AR 2 0 195572. Miesiąc w porównaniu ze stałą Ogólnie rzecz biorąc, średni okres w modelu ARIMA odnosi się do średniej zróżnicowanych serii tj. przeciętnego trendu jeśli kolejność różnicowania jest równa 1, podczas gdy stała jest stałą, która pojawia się po prawej stronie równania prognozowania Średnie i stałe wyrażenia odnoszą się do równania. CONSTANT MEAN 1 minus suma AR Współczynniki. W tym przypadku mamy 0 258178 0 467566 1 - 0 25224 - 0 195572.Analizacyjny model serii UNITS - ARIMA 0,2,1 Przypomnijmy, że kiedy zaczęliśmy analizować serię jednostek UNITS, nie byliśmy pewni prawidłowej kolejności różnicowania w użyciu Jedno rzędy nierównomiernego różnicowania dały najmniejsze odchylenie standardowe i wzorcową łagodną pozytywną autokorelację, podczas gdy dwa rzędy pozaskładowej różniczki dały bardziej stacjonujący wygląd szereg czasowy, ale z dość silnymi negatywnymi autokorrelati na Oto zarówno ACF jak i PACF z serii z dwoma różnymi nierównomiernymi różnicami. Pojedynczy ujemny skok przy opóźnieniu 1 w ACF jest podpisem MA 1, zgodnie z powyższą regułą 8 W ten sposób, gdybyśmy używali 2 odmiennych różnic, chcesz również dołączyć termin MA 1, uzyskując model ARIMA 0,2,1 Zgodnie z regułą 5, chcielibyśmy też stłumić stały termin W tym przypadku wyniki są zgodne z modelem ARIMA 0,2,1 bez że oszacowane odchylenie standardowe białego szumu RMSE jest tylko nieznacznie wyższe dla tego modelu niż poprzednie 1 46301 tutaj w porównaniu z 1 45215 poprzednio Równanie prognozy dla tego modelu jest. gdzie tata-1 jest współczynnikiem MA 1 Przypomnij sobie, że to jest podobny do modelu Linear Exponential smoothing, o współczynniku MA1 odpowiadającym ilości 2 1-alfa w modelu LES Współczynnik MA 1 wynoszący 0 76 w tym modelu sugeruje, że model LES z alfa w pobliżu 0 72 Dobrze, gdy L Model ES jest dopasowany do tych samych danych, optymalna wartość alfa wyniósł około 0 61, co nie jest za daleko Jest to modelowy raport porównawczy przedstawiający wyniki dopasowania modelu ARIMA 2,1,0 do stałej , model ARIMA 0,2,1 bez stałej i model LES. Trzy modele wykonują niemal identycznie w okresie estymacji, a model ARIMA 2,1,0 ze stałą wydaje się nieco lepszy od pozostałych dwóch w okresie walidacji Tylko na podstawie tych wyników statystycznych trudno byłoby wybrać jeden z trzech modeli. Jeśli jednak przedstawimy długoterminowe prognozy wykonane przy użyciu modelu ARIMA 0,2,1 bez stałych, które są zasadniczo takie same jak w przypadku modelu Model LES, widać znaczną różnicę w porównaniu z modelem wcześniejszym. Prognozy mają nieco mniej tendencji wzrostowej niż w modelu wcześniejszym - ponieważ tendencja lokalna pod koniec serii jest nieco mniejsza niż średnia tendencja całą serię - ale przedziały ufności rozszerza się znacznie szybciej Model z dwoma kolejnymi rozróżnieniami zakłada, że ​​tendencja w serii zmienia się w czasie, dlatego uważa, że ​​dalsza przyszłość jest o wiele bardziej niepewna niż model, w którym tylko jeden porządek różni się. Jakim modelem powinniśmy wybrać To zależy od założeń, które możemy sobie wyobrazić w odniesieniu do stałości tendencji w danych Model z tylko jednym porządkiem różnicowania przyjmuje założoną stałą średnią tendencję - zasadniczo jest to wyrafinowany model swobodnego spacerowania ze wzrostem - i dlatego też czyni stosunkowo konserwatywne prognozy trendów Jest dość optymistycznie nastawione do dokładności, z jaką może przewidzieć więcej niż jeden rok. Model z dwoma rozkazami różnicowania zakłada tendencję lokalną zmieniającą się w czasie - jest zasadniczo linearnym wykładnikiem wykładniczym - i jego prognozy trendu są nieco bardziej niestabilne Zgodnie z ogólną zasadą w tej sytuacji polecam wybór modelu z niższym porządkiem różnicowania, inne rzeczy są w przybliżeniu równe W praktyce modele losowego spaceru lub prostokątnego wygładzania często wydają się działać lepiej niż liniowe modele wyrównywania wykładniczego. Modele mieszane W większości przypadków najlepszym modelem okazuje się model, który używa tylko terminów AR lub tylko MA, chociaż w niektórych przypadkach model mieszany z AR i MA może być najlepszym rozwiązaniem dla danych. Jednakże należy zachować ostrożność przy dopasowywaniu modeli mieszanych Możliwe jest, aby termin AR i okres magisterski wycofywał się ze sobą nawet jeśli oba te elementy mogą okazać się znaczące w modelu, co zostanie ocenione przez t-statystykę ich współczynników. Na przykład załóżmy, że prawidłowym modelem serii czasowej jest model ARIMA 0,1,1, ale zamiast tego pasujesz do ARIMA Model 1,1,2 - czyli jeden dodatkowy termin AR i jeden dodatkowy termin magisterski Następnie dodatkowe warunki mogą się ukazać znacząco w modelu, ale wewnętrznie mogą być tylko ze sobą sprzeczne Wynikowe oszacowania parametrów mogą być niejednoznaczne , a proces estymacji parametrów może potrwać bardzo wiele, np. więcej niż 10 iteracji w celu zharmonizowania efektu Hence. Rule 8 Jest możliwe, że termin AR i termin MA, aby anulować efekty s, więc jeśli mieszany model AR-MA wydaje się pasował do danych, wypróbuj model z mniej niż jedną AR i jedną mniejszą liczbą terminów MA - zwłaszcza, jeśli szacunkowy parametr w oryginalnym modelu wymaga więcej niż 10 iteracji w celu zbieżności. Z tego powodu modele ARIMA nie mogą zostać zidentyfikowane przez podejście krokowe w tył, które obejmuje zarówno AR, jak i MA Innymi słowy, nie można rozpocząć od włączenia kilku terminów każdego rodzaju, a następnie wyrzucenia tych, których szacunkowe współczynniki nie są znaczące. Zamiast tego, zwykle postępuj zgodnie z podejściem krokowym, dodając takie określenia lub inne, indicated by the appearance of the ACF and PACF plots. Unit roots If a series is grossly under - or overdifferenced--ie if a whole order of differencing needs to be added or cancelled, this is often signalled by a unit root in t he estimated AR or MA coefficients of the model An AR 1 model is said to have a unit root if the estimated AR 1 coefficient is almost exactly equal to 1 By exactly equal I really mean not significantly different from in terms of the coefficient s own standard error When this happens, it means that the AR 1 term is precisely mimicking a first difference, in which case you should remove the AR 1 term and add an order of differencing instead This is exactly what would happen if you fitted an AR 1 model to the undifferenced UNITS series, as noted earlier In a higher-order AR model, a unit root exists in the AR part of the model if the sum of the AR coefficients is exactly equal to 1 In this case you should reduce the order of the AR term by 1 and add an order of differencing A time series with a unit root in the AR coefficients is nonstationary --i e it needs a higher order of differencing. Rule 9 If there is a unit root in the AR part of the model--i e if the sum of the AR coefficients is almost exactly 1--you should reduce the number of AR terms by one and increase the order of differencing by one. Similarly, an MA 1 model is said to have a unit root if the estimated MA 1 coefficient is exactly equal to 1 When this happens, it means that the MA 1 term is exactly cancelling a first difference, in which case, you should remove the MA 1 term and also reduce the order of differencing by one In a higher-order MA model, a unit root exists if the sum of the MA coefficients is exactly equal to 1.Rule 10 If there is a unit root in the MA part of the model--i e if the sum of the MA coefficients is almost exactly 1--you should reduce the number of MA terms by one and reduce the order of differencing by one. For example, if you fit a linear exponential smoothing model an ARIMA 0,2,2 model when a simple exponential smoothing model an ARIMA 0,1,1 model would have been sufficient, you may find that the sum of the two MA coefficients is very nearly equal to 1 By reducing the MA order an d the order of differencing by one each, you obtain the more appropriate SES model A forecasting model with a unit root in the estimated MA coefficients is said to be noninvertible meaning that the residuals of the model cannot be considered as estimates of the true random noise that generated the time series. Another symptom of a unit root is that the forecasts of the model may blow up or otherwise behave bizarrely If the time series plot of the longer-term forecasts of the model looks strange, you should check the estimated coefficients of your model for the presence of a unit root. Rule 11 If the long-term forecasts appear erratic or unstable, there may be a unit root in the AR or MA coefficients. None of these problems arose with the two models fitted here, because we were careful to start with plausible orders of differencing and appropriate numbers of AR and MA coefficients by studying the ACF and PACF models. More detailed discussions of unit roots and cancellation effects between A R and MA terms can be found in the Mathematical Structure of ARIMA Models handout. A RIMA stands for Autoregressive Integrated Moving Average models Univariate single vector ARIMA is a forecasting technique that projects the future values of a series based entirely on its own inertia Its main application is in the area of short term forecasting requiring at least 40 historical data points It works best when your data exhibits a stable or consistent pattern over time with a minimum amount of outliers Sometimes called Box-Jenkins after the original authors , ARIMA is usually superior to exponential smoothing techniques when the data is reasonably long and the correlation between past observations is stable If the data is short or highly volatile, then some smoothing method may perform better If you do not have at least 38 data points, you should consider some other method than ARIMA. The first step in applying ARIMA methodology is to check for stationarity Stationarity implies that the ser ies remains at a fairly constant level over time If a trend exists, as in most economic or business applications, then your data is NOT stationary The data should also show a constant variance in its fluctuations over time This is easily seen with a series that is heavily seasonal and growing at a faster rate In such a case, the ups and downs in the seasonality will become more dramatic over time Without these stationarity conditions being met, many of the calculations associated with the process cannot be computed. If a graphical plot of the data indicates nonstationarity, then you should difference the series Differencing is an excellent way of transforming a nonstationary series to a stationary one This is done by subtracting the observation in the current period from the previous one If this transformation is done only once to a series, you say that the data has been first differenced This process essentially eliminates the trend if your series is growing at a fairly constant rate I f it is growing at an increasing rate, you can apply the same procedure and difference the data again Your data would then be second differenced. Autocorrelations are numerical values that indicate how a data series is related to itself over time More precisely, it measures how strongly data values at a specified number of periods apart are correlated to each other over time The number of periods apart is usually called the lag For example, an autocorrelation at lag 1 measures how values 1 period apart are correlated to one another throughout the series An autocorrelation at lag 2 measures how the data two periods apart are correlated throughout the series Autocorrelations may range from 1 to -1 A value close to 1 indicates a high positive correlation while a value close to -1 implies a high negative correlation These measures are most often evaluated through graphical plots called correlagrams A correlagram plots the auto - correlation values for a given series at different lags This is referred to as the autocorrelation function and is very important in the ARIMA method. ARIMA methodology attempts to describe the movements in a stationary time series as a function of what are called autoregressive and moving average parameters These are referred to as AR parameters autoregessive and MA parameters moving averages An AR model with only 1 parameter may be written as. where X t time series under investigation. A 1 the autoregressive parameter of order 1.X t-1 the time series lagged 1 period. E t the error term of the model. This simply means that any given value X t can be explained by some function of its previous value, X t-1 , plus some unexplainable random error, E t If the estimated value of A 1 was 30, then the current value of the series would be related to 30 of its value 1 period ago Of course, the series could be related to more than just one past value For example. X t A 1 X t-1 A 2 X t-2 E t. This indicates that the current value of the series is a combination of the two immediately preceding values, X t-1 and X t-2 , plus some random error E t Our model is now an autoregressive model of order 2.Moving Aver age Models. A second type of Box-Jenkins model is called a moving average model Although these models look very similar to the AR model, the concept behind them is quite different Moving average parameters relate what happens in period t only to the random errors that occurred in past time periods, i e E t-1 , E t-2 , etc rather than to X t-1 , X t-2 , Xt-3 as in the autoregressive approaches A moving average model with one MA term may be written as follows. The term B 1 is called an MA of order 1 The negative sign in front of the parameter is used for convention only and is usually printed out auto - matically by most computer programs The above model simply says that any given value of X t is directly related only to the random error in the previous period, E t-1 , and to the current error term, E t As in the case of autoregressive models, the moving average models can be extended to higher order structures covering different combinations and moving average lengths. ARIMA methodology als o allows models to be built that incorporate both autoregressive and moving average parameters together These models are often referred to as mixed models Although this makes for a more complicated forecasting tool, the structure may indeed simulate the series better and produce a more accurate forecast Pure models imply that the structure consists only of AR or MA parameters - not both. The models developed by this approach are usually called ARIMA models because they use a combination of autoregressive AR , integration I - referring to the reverse process of differencing to produce the forecast, and moving average MA operations An ARIMA model is usually stated as ARIMA p, d,q This represents the order of the autoregressive components p , the number of differencing operators d , and the highest order of the moving average term For example, ARIMA 2,1,1 means that you have a second order autoregressive model with a first order moving average component whose series has been differenced onc e to induce stationarity. Picking the Right Specification. The main problem in classical Box-Jenkins is trying to decide which ARIMA specification to use - i e how many AR and or MA parameters to include This is what much of Box-Jenkings 1976 was devoted to the identification process It depended upon graphical and numerical eval - uation of the sample autocorrelation and partial autocorrelation functions Well, for your basic models, the task is not too difficult Each have autocorrelation functions that look a certain way However, when you go up in complexity, the patterns are not so easily detected To make matters more difficult, your data represents only a sample of the underlying process This means that sampling errors outliers, measurement error, etc may distort the theoretical identification process That is why traditional ARIMA modeling is an art rather than a science.

Comments