Thursday 12 October 2017

Autoregressiva Glidande-Medelvärde Excel


ARMA Unplugged Detta är den första posten i vår serie Unplugged tutorials, där vi dyker in i detaljerna för var och en av de tidsseriemodeller som du redan är bekant med, markerar de underliggande antagandena och kör hem intuitionerna bakom dem. I den här frågan hanterar vi ARMA-modellen en hörnsten i tidsseriemodellering. Till skillnad från tidigare analysproblem börjar vi här med ARMA-processdefinitionen, ange ingångar, utgångar, parametrar, stabilitetsbegränsningar, antaganden och slutligen dra några riktlinjer för modelleringsprocessen. Bakgrund Enligt definitionen är det automatiska regressiva glidande genomsnittet (ARMA) en stationär stokastisk process som består av summor av autoregressiva Excel och glidande medelkomponenter. Alternativt, i en enkel formulering: Förutsättningar Låt oss se närmare på formuleringen. ARMA-processen är helt enkelt en viktad summa av de tidigare utmatningsobservationerna och chockerna, med få viktiga antaganden: Vad betyder dessa antaganden En stokastisk process är en motsvarighet till en deterministisk process som beskriver utvecklingen av en slumpmässig variabel över tiden. I vårt fall är den slumpmässiga variabeln ARMA-processen fångar bara seriell korrelation (dvs automatisk korrelation) mellan observationerna. I enkla ord summerar ARMA-processen upp värdena för tidigare observationer, inte deras kvadrerade värden eller deras logaritmer etc. Högre orderberoende innebär att en annan process (t. ex. ARCHGARCH, icke-linjära modeller etc.) är mandat. Det finns många exempel på en stokastisk process där tidigare värden påverkar nuvarande. Till exempel, i ett försäljningskontor som kontinuerligt mottar RFQ, realiseras några som försäljningsvinster, några som försäljningsförluster, och några släpptes över till nästa månad. Som en följd av detta kommer några av de försäljningsgevunna fallen att förekomma som en RFQ eller en återkommande försäljning från tidigare månader. Vad är chocker, innovationer eller felvillkor Det här är svår fråga, och svaret är inte mindre förvirrande. Fortfarande, låt oss prova: I enkla ord är felet i en given modell en catch-all-hink för alla variationer som modellen inte förklarar. Fortfarande förlorade Kan vi använda ett exempel. För en aktiekursprocess finns det kanske hundratals faktorer som driver uppdateringen av prisnivån, inklusive: Utdelningar och delårsmeddelanden Kvartalsinkomstrapporter Fusioner och förvärv (MampA) - aktiviteter Juridiska händelser, t. ex. hotet om klagomål. Andra En modell, genom design, är en förenkling av en komplex verklighet, så vad som helst vi lämnar utanför modelleras automatiskt i felperioden. ARMA-processen förutsätter att den kollektiva effekten av alla dessa faktorer verkar mer eller mindre som gaussiskt ljud. Varför bryr vi oss om tidigare chocker Till skillnad från en regressionsmodell kan förekomsten av en stimulans (t. ex. chock) ha en effekt på nuvarande nivå, och eventuellt framtida nivåer. En företagshändelse (t. ex. MampA-aktivitet) påverkar exempelvis börskursens aktiekurs, men förändringen kan ta lite tid för att få full effekt, eftersom marknadsaktörer absorberar tillgänglig information och reagerar i enlighet därmed. Detta ber om ursprunget: de tidigare värdena för utgången har redan chocker förbi informationen JA, chockhistoriken redovisas redan i tidigare utdata. En ARMA-modell kan enbart representeras som en ren auto-regressiv (AR) - modell, men lagringskravet för ett sådant system i oändligt. Detta är den enda anledningen att inkludera MA-komponenten: att spara på lagring och förenkla formuleringen. Återigen måste ARMA-processen vara stationär för den marginella (ovillkorliga) variansen att existera. Obs! I min diskussion ovan gör jag inte skillnad mellan endast frånvaro av enhetsrot i den karakteristiska ekvationen och stationäriteten i processen. De är relaterade, men frånvaron av enhetsrots är inte en garanti för stationäritet. Enhetsroten måste dock ligga inuti enhetscirkeln för att vara korrekt. Slutsats Låt oss ta reda på vad vi hittills gjort. Först undersökte vi en stationär ARMA-process, tillsammans med dess formulering, ingångar, antaganden och lagringskrav. Därefter visade vi att en ARMA-process inkorporerar sina utgångsvärden (autokorrelation) och chocker som det upplevde tidigare i den aktuella utgången. Slutligen visade vi att den stationära ARMA-processen producerar en tidsserie med en stabil långsiktig medelvärde och varians. I vår dataanalys, innan vi föreslår en ARMA-modell, borde vi verifiera stationaritetsantagandet och de slutgiltiga minneskraven. Om dataserien uppvisar en deterministisk trend måste vi ta bort (de-trend) det först och använd sedan residualerna för ARMA. Om datasetet uppvisar en stokastisk trend (t ex slumpmässig promenad) eller säsonglighet, måste vi underhålla ARIMASARIMA. Slutligen kan korrelogrammet (dvs ACFPACF) användas för att mäta minneskravet för modellen som vi borde förvänta att antingen ACF eller PACF försvinner snabbt efter några lags. Om inte kan detta vara ett tecken på icke-stationäritet eller ett långsiktigt mönster (t. ex. ARFIMA). En RIMA står för autoregressiva integrerade rörliga genomsnittsmodeller. Univariate (single vector) ARIMA är en prognosteknik som projekterar framtida värden för en serie baserad helt på egen tröghet. Dess huvudsakliga tillämpning är inom området för prognoser på kort sikt som kräver minst 40 historiska datapunkter. Det fungerar bäst när dina data uppvisar ett stabilt eller konsekvent mönster över tiden med ett minimum av outliers. Ibland kallas Box-Jenkins (efter de ursprungliga författarna), är ARIMA vanligtvis överlägsen exponentiell utjämningsteknik när data är rimligt långa och korrelationen mellan tidigare observationer är stabil. Om data är korta eller mycket flyktiga, kan en viss utjämningsmetod fungera bättre. Om du inte har minst 38 datapunkter, bör du överväga någon annan metod än ARIMA. Det första steget i att tillämpa ARIMA-metodiken är att kontrollera stationäriteten. Stationäritet innebär att serien förblir på en ganska konstant nivå över tiden. Om det finns en trend, som i de flesta ekonomiska eller affärsapplikationer, är dina data INTE stationära. Uppgifterna bör också visa en konstant varians i sina fluktuationer över tiden. Detta syns lätt med en serie som är väldigt säsongsbetonad och växer i snabbare takt. I så fall blir uppgångarna och nedgångarna i säsongsalden mer dramatiska över tiden. Utan att dessa stationaritetsförhållanden är uppfyllda kan många av beräkningarna associerade med processen inte beräknas. Om en grafisk del av data indikerar icke-stationaritet, bör du skilja på serien. Differentiering är ett utmärkt sätt att omvandla en icke-stationär serie till en stationär. Detta görs genom att subtrahera observationen under den aktuella perioden från föregående. Om denna omvandling görs bara en gång till en serie, säger du att uppgifterna först har skiljats. Denna process eliminerar i huvudsak trenden om din serie växer med en ganska konstant takt. Om den växer i ökande takt kan du tillämpa samma procedur och skillnad data igen. Dina uppgifter skulle då bli annorlunda. Autokorrelationer är numeriska värden som indikerar hur en dataserie är relaterad till sig själv över tiden. Närmare bestämt mäter det hur starkt datavärdena vid ett visst antal perioder från varandra är korrelerade med varandra över tiden. Antalet perioder ibland kallas vanligtvis lagret. Till exempel mäter en autokorrelation vid lag 1 hur värdena 1 period från varandra korreleras med varandra i serien. En autokorrelation vid lag 2 mäter hur data två perioder från varandra korreleras genom hela serien. Autokorrelationer kan sträcka sig från 1 till -1. Ett värde nära 1 indikerar en hög positiv korrelation medan ett värde nära -1 innebär en hög negativ korrelation. Dessa åtgärder utvärderas oftast genom grafiska tomter som kallas korrelagram. Ett korrelagram plottar autokorrelationsvärdena för en given serie i olika lags. Detta kallas autokorrelationsfunktionen och är mycket viktigt i ARIMA-metoden. ARIMA-metoden försöker beskriva rörelserna i en stationär tidsserie som en funktion av vad som kallas autoregressiva och rörliga genomsnittsparametrar. Dessa kallas AR parametrar (autoregessiva) och MA parametrar (glidande medelvärden). En AR-modell med endast 1 parameter kan skrivas som. X (t) A (1) X (t-1) E (t) där X (t) tidsserier som undersöks A (1) den autoregressiva parametern av ordning 1 X (t-1) (T) modellens felperiod Detta betyder helt enkelt att vilket givet värde X (t) som kan förklaras med någon funktion av dess tidigare värde, X (t-1), plus något oförklarligt slumpmässigt fel, E (t). Om det uppskattade värdet av A (1) var .30, skulle nuvärdet av serien vara relaterat till 30 av dess värde 1 period sedan. Naturligtvis kan serien vara relaterad till mer än bara ett tidigare värde. Exempelvis X (t) A (1) X (t-1) A (2) X (t-2) E (t) Detta indikerar att serievärdet är en kombination av de två omedelbart föregående värdena, X (t-1) och X (t-2), plus något slumpmässigt fel E (t). Vår modell är nu en autoregressiv modell av ordning 2. Flytta genomsnittliga modeller: En andra typ av Box-Jenkins-modell kallas en rörlig genomsnittsmodell. Även om dessa modeller ser mycket ut som AR-modellen är konceptet bakom dem ganska annorlunda. Flytta genomsnittsparametrar relaterar vad som händer i period t endast till de slumpmässiga fel som inträffade under tidigare tidsperioder, dvs E (t-1), E (t-2) osv. Snarare än till X (t-1), X T-2), (Xt-3) som i de autoregressiva tillvägagångssätten. En glidande medelmodell med en MA-term kan skrivas enligt följande. X (t) - B (1) E (t-1) E (t) Termen B (1) kallas en MA i ordning 1. Negativt tecken framför parametern används endast för konventionen och skrivs vanligen ut automatiskt efter de flesta datorprogram. Ovanstående modell säger helt enkelt att ett givet värde av X (t) är direkt relaterat till det slumpmässiga felet i föregående period, E (t-1) och till den aktuella felperioden E (t). Som i fråga om autregressiva modeller kan de rörliga genomsnittsmodellerna utvidgas till högre orderstrukturer som täcker olika kombinationer och glidande medellängder. ARIMA-metoden möjliggör också att modeller ska byggas som innehåller både autoregressiva och rörliga genomsnittsparametrar tillsammans. Dessa modeller kallas ofta blandade modeller. Även om detta ger ett mer komplicerat prognosverktyg kan strukturen verkligen simulera serien bättre och ge en mer exakt prognos. Rena modeller innebär att strukturen bara består av AR eller MA parametrar - inte båda. Modellerna som utvecklas genom detta tillvägagångssätt kallas vanligen ARIMA-modeller eftersom de använder en kombination av autoregressiv (AR), integration (I) - hänvisar till omvänd process för differentiering för att producera prognosen och rörliga genomsnittliga (MA) - operationer. En ARIMA-modell anges vanligtvis som ARIMA (p, d, q). Detta representerar ordningen för de autogegressiva komponenterna (p), antalet differentieringsoperatörer (d) och den högsta ordningen för den glidande medelfristen. Till exempel betyder ARIMA (2,1,1) att du har en andra ordning med automatisk reglering med en första ordning som rör en genomsnittlig komponent vars serie har avvikits en gång för att inducera stationäritet. Plocka rätt specifikation: Det största problemet i klassiska Box-Jenkins försöker bestämma vilken ARIMA-specifikation som ska användas - i. e. Hur många parametrar för AR och MA som ska ingå. Det är så mycket av Box-Jenkings 1976 som ägnades åt identifieringsprocessen. Det berodde på grafisk och numerisk utvärdering av provautokorrelationen och partiella autokorrelationsfunktioner. Tja, för dina grundläggande modeller är uppgiften inte för svår. Var och en har autokorrelationsfunktioner som ser på ett visst sätt. Men när du går upp i komplexitet är mönstren inte så lätt detekterade. För att göra saker svårare representerar dina data bara ett urval av den underliggande processen. Det betyder att provtagningsfel (outliers, mätfel etc.) kan snedvrida den teoretiska identifieringsprocessen. Det är därför som traditionell ARIMA-modellering är en konst snarare än en science. ARIMA Prognos med Excel och R Hej Idag ska jag gå igenom en introduktion till ARIMA-modellen och dess komponenter, samt en kort förklaring av Box-Jenkins metod för hur ARIMA-modellerna specificeras. Slutligen skapade jag ett Excel-implementering med R, som I8217ll visar dig hur du konfigurerar och använder. Autoregressive Moving Average (ARMA) Modeller Den autoregressiva Moving Average-modellen används för att modellera och prognosera stationära, stokastiska tidsserier. Det är kombinationen av två tidigare utvecklade statistiska tekniker, de autoregressiva (AR) och Moving Average (MA) - modellerna och beskrivs ursprungligen av Peter Whittle 1951. George E. P. Box och Gwilym Jenkins populariserade modellen 1971 genom att specificera diskreta steg för modellidentifiering, uppskattning och verifiering. Denna process kommer att beskrivas senare för referens. Vi börjar med att introducera ARMA-modellen genom sina olika komponenter, AR - och MA-modellerna och presentera sedan en populär generalisering av ARMA-modellen, ARIMA (Autoregressive Integrated Moving Average) och prognoser och modellspecifikationssteg. Slutligen kommer jag att förklara ett Excel-genomförande jag skapade och hur man använder det för att göra dina prognoser för tidsserier. Autoregressiva modeller Den autoregressiva modellen används för att beskriva slumpmässiga processer och tidsvarierande processer och specificerar att utgångsvariabeln beror linjärt på sina tidigare värden. Modellen beskrivs som: Xt c sum varphii, Xt-i varepsilont Där varphi1, ldots, varphivarphi är parametrarna i modellen, C är konstant och varepsilont är en vit brusperiod. I grund och botten beskriver vad modellen beskriver för ett givet värde X (t). det kan förklaras av funktioner av sitt tidigare värde. För en modell med en parameter förklaras varphi 1. X (t) med sitt tidigare värde X (t-1) och slumpmässigt fel varupunkt. För en modell med mer än en parameter, till exempel varphi 2. X (t) ges av X (t-1). X (t-2) och slumpmässigt fel varepsilont. Moving Average Model Den rörliga genomsnittliga (MA) modellen används ofta för modellering av univariata tidsserier och definieras som: Xt mu varepsilont theta1, varepsilon ldots thetaq, varepsilon mu är medelvärdet av tidsserierna. theta1, ldots, thetaq är parametrarna för modellen. varepsilont, varepsilon, ldots är de vita brusvillkoren. q är ordningen för den rörliga genomsnittsmodellen. Den rörliga genomsnittsmodellen är en linjär regression av seriens nuvärde jämfört med varpsilontermer under föregående period, t. varepsilon. Exempelvis förklaras en MA-modell av q 1. X (t) av den aktuella felsvarupiloten i samma period och det tidigare felvärdet, varepsilon. För en modell av order 2 (q 2) förklaras X (t) av de två senaste felvärdena, varepsilon och varepsilon. AR (p) och MA (q) termerna används i ARMA-modellen, som nu kommer att introduceras. Autoregressiv Moving Average Modell Autoregressiv Moving Genomsnittliga modeller använder två polynomier, AR (p) och MA (q) och beskriver en stationär stokastisk process. En stationär process förändras inte när den flyttas i tid eller rum, därför har en stationär process konstant medelvärde och varians. ARMA-modellen refereras ofta till i form av dess polynom, ARMA (p, q). Modellens notation är skrivet: Xt c varpsilont sum varphi1 X summa thetai varepsilon Val av, uppskattning och verifiering av modellen beskrivs av Box-Jenkins-processen. Box-Jenkins Metod för modellidentifiering Nedan följer en mer översikt över Box-Jenkins-metoden, eftersom den faktiska processen att hitta dessa värden kan vara ganska överväldigande utan ett statistiskt paket. Excel-arket som ingår på den här sidan bestämmer automatiskt den bästa monteringsmodellen. Det första steget i Box-Jenkins-metoden är modellidentifiering. Steget innefattar att identifiera säsonglighet, differentiering om det behövs och bestämning av ordningen av p och q genom att kartlägga autokorrelations - och partiella autokorrelationsfunktioner. När modellen har identifierats beräknas nästa steg parametrarna. Parameteruppskattning använder statistiska paket och beräkningsalgoritmer för att hitta de bästa passande parametrarna. När parametrarna väljs, kontrollerar det sista steget modellen. Modellkontroll görs genom testning för att se huruvida modellen överensstämmer med en stationär univariatidserie. Man bör också bekräfta att resterna är oberoende av varandra och uppvisar konstant medelvärde och varians över tiden, vilket kan göras genom att utföra ett Ljung-Box-test eller återigen plottar autokorrelationen och partiell autokorrelation av resterna. Observera att det första steget innebär att du checkar in säsongsmässigt. Om de data du arbetar med innehåller säsongsutvecklingar, gör du 8220difference8221 för att göra datan stationär. Detta differentieringssteg generaliserar ARMA-modellen i en ARIMA-modell, eller Autoregressive Integrated Moving Average, där 8216Integrated8217 motsvarar differentieringssteget. Autoregressiva integrerade rörliga genomsnittsmodeller ARIMA-modellen har tre parametrar, p, d, q. För att definiera ARMA-modellen för att inkludera differentieringsperioden börjar vi genom att omarrangera standard ARMA-modellen för att separera X (t) latex - och latexvarpsilont från summeringen. (1 sum sumai Li) Xt (1 summa thetai Li) varepsilont Där L är lagoperatören och alphai. thetai. varepsilont är autoregressiva och glidande medelparametrar, respektive felvillkoren. Vi gör nu antagandet den första polynomen av funktionen, (1 - summa alai Li) har en enhetlig rot av multiplicitet d. Vi kan sedan skriva om det till följande: ARIMA-modellen uttrycker polynomialiseringen med pp - d och ger oss: (1 - summa Li) (1 - L) d Xt (1 summa thetai Li) varepsilont Slutligen generaliserar vi modell ytterligare genom att lägga till en drivperiod som definierar ARIMA-modellen som ARIMA (p, d, q) med drift frac. (1-summa Phii Li) (1-L) d Xt delta (1 summa thetai Li) varepsilont Med den nu definierade modellen kan vi se ARIMA-modellen som två separata delar, en icke-stationär och den andra vidvinkliga stationära (gemensam sannolikhetsfördelning ändras inte när det ändras i tid eller rum). Den icke-stationära modellen: Den breda förnuftiga stationära modellen: (1 - summa Phii Li) Yt (1 summa thetai Li) varepsilont Prognoser kan nu göras på Yt med en generaliserad autoregressiv prognosmetod. Nu när vi har diskuterat ARMA - och ARIMA-modellerna, vänder vi oss nu till hur kan vi använda dem i praktiska tillämpningar för att förutse prognoser. Ive byggt ett implementering med Excel med R för att göra ARIMA-prognoser samt ett alternativ att köra Monte Carlo-simulering på modellen för att bestämma sannolikheten för prognoserna. Excel Implementation och Användning Innan du använder arket måste du ladda ner R och RExcel från Statconns webbplats. Om du redan har R installerat kan du bara ladda ner RExcel. Om du inte har R installerat kan du ladda ner RAndFriends som innehåller den senaste versionen av R och RExcel. Observera, RExcel fungerar bara på 32bit Excel för sin icke-kommersiella licens. Om du har 64bit Excel installerat måste du få en kommersiell licens från Statconn. Det rekommenderas att ladda ner RAndFriends eftersom det gör den snabbaste och enklaste installationen, men om du redan har R och vill installera den manuellt, följ dessa steg. Installera manuellt RExcel För att installera RExcel och övriga paket för att R ska fungera i Excel, öppna först R som administratör genom att högerklicka på. exe. I R-konsolen installerar du RExcel genom att skriva följande påståenden: Ovanstående kommandon installerar RExcel på din maskin. Nästa steg är att installera rcom, vilket är ett annat paket från Statconn för RExcel-paketet. För att installera detta, skriv följande kommandon, som också automatiskt installerar rscproxy som av R-version 2.8.0. Med dessa paket installerade kan du flytta till för att ställa in anslutningen mellan R och Excel. Även om det inte är nödvändigt för installationen, är ett praktiskt paket att ladda ner Rcmdr, utvecklat av John Fox. Rcmdr skapar R menyer som kan bli menyer i Excel. Den här funktionen kommer som standard med RAndFriends-installationen och gör flera R-kommandon tillgängliga i Excel. Skriv följande kommandon i R för att installera Rcmdr. Vi kan skapa länken till R och Excel. Observera i de senaste versionerna av RExcel Denna anslutning görs med ett enkelt dubbelklick på den medföljande. bat-filen ActivateRExcel2010, så du behöver bara följa dessa steg om du manuellt installerade R och RExcel eller om någon anledning inte görs i samband med anslutningen under installationen av RAndFriends. Skapa anslutningen mellan R och Excel Öppna en ny bok i Excel och navigera till alternativskärmen. Klicka på Alternativ och sedan Tillägg. Du bör se en lista över alla aktiva och inaktiva tillägg du har för tillfället. Klicka på knappen Gå längst ned. I dialogrutan Tillägg ser du alla tilläggsreferenser du har gjort. Klicka på Browse. Navigera till RExcel-mappen, vanligtvis i C: Program FilesRExcelxls eller något liknande. Hitta RExcel. xla-tillägget och klicka på det. Nästa steg är att skapa en referens för att makron använder R för att fungera korrekt. I ditt Excel-dokument anger du Alt F11. Detta öppnar Excels VBA editor. Gå till Verktyg - gt Referenser och hitta RExcel-referensen, RExcelVBAlib. RExcel ska nu vara redo att använda Använd Excel-arket Nu när R och RExcel är korrekt konfigurerade, är det dags att göra några prognoser Öppna prognosarket och klicka på Ladda server. Det här är att starta RCom-servern och även ladda de nödvändiga funktionerna för att göra prognoserna. En dialogruta öppnas. Välj den itall. R-filen som ingår i arket. Den här filen innehåller de funktioner som prognosverktyget använder. De flesta av de funktioner som ingår var utvecklade av professor Stoffer vid University of Pittsburgh. De utökar möjligheterna till R och ger oss några användbara diagnostikgrafer tillsammans med vår prognosutgång. Det finns också en funktion för att automatiskt bestämma de bästa passande parametrarna för ARIMA-modellen. När servern har laddats, ange dina data i kolumnen Data. Välj dataintervallet, högerklicka och välj Namnintervall. Namn området som Data. Ange sedan frekvensen av dina data i Cell C6. Frekvens avser tidsperioderna för dina data. Om det är veckovis, skulle frekvensen vara 7. Månadsvis skulle vara 12 medan kvartalsvis skulle vara 4 osv. Ange de perioder som ligger framåt för att prognostisera. Observera att ARIMA-modellerna blir ganska felaktiga efter flera på varandra följande frekvensprognoser. En bra tumregel är att inte överstiga 30 steg som någonting förbi som kan vara ganska opålitligt. Detta beror också på storleken på din dataset. Om du har begränsad data tillgänglig, rekommenderas att du väljer ett mindre steg före nummer. Efter att du har skrivit in dina data, namngiv den och ställ in önskad frekvens och steg framåt för att prognostisera, klicka på Kör. Det kan ta en stund för prognoserna att bearbeta. När det är klart, kommer du att få förutspådda värden ut till det antal du angav, standardfelet på resultaten och två diagram. Vänster är de förutspådda värdena som ritats med data, medan rätten innehåller praktisk diagnostik med standardiserade residualer, autokorrelering av resterna, en gg-del av resterna och en Ljung-Box statistikdiagram för att avgöra om modellen är välutrustad. Jag kommer inte in på för mycket detaljer om hur du letar efter en välutrustad modell, men på ACF-grafen vill du inte att någon (eller mycket) av lagspikarna passerar över den prickade blå linjen. På gg-plot, desto mer cirklar som går genom linjen, desto mer normaliserad och bättre monterad är modellen. För större dataset kan det här korsa många cirklar. Slutligen är Ljung-Box-testet en artikel i sig, desto mer cirklar som ligger ovanför den prickade blå linjen desto bättre är modellen. Om diagnostikresultatet inte ser bra ut, kan du försöka lägga till mer data eller starta på en annan punkt närmare det intervall du vill förutse. Du kan enkelt rensa de genererade resultaten genom att klicka på knappen Klar prognoserade värden. Och det är det För tillfället gör datakolonnen inte annat än för din referens, men det är inte nödvändigt för verktyget. Om jag hittar tid, går jag tillbaka och lägger till så att det visade diagrammet visar rätt tid. Du kan också få ett fel när du kör prognosen. Detta beror vanligtvis på den funktion som finner att de bästa parametrarna inte kan bestämma rätt ordning. Du kan följa ovanstående steg för att försöka ordna dina data bättre för att funktionen ska fungera. Jag hoppas att du får använda dig av verktyget. Det räddade mig mycket tid på jobbet, eftersom nu är allt jag behöver göra är att mata in data, ladda serveren och köra den. Jag hoppas också att det här visar hur fantastiskt R kan vara, speciellt när det används med ett front-end som Excel. Kod, Excel-kalkylblad och. bas-fil finns också på GitHub här .8.3 Autoregressiva modeller I en multipelregressionsmodell förutser vi variabeln av intresse med en linjär kombination av prediktorer. I en autoregressionsmodell prognostiserar vi räntevaran med hjälp av en linjär kombination av tidigare värden för variabeln. Termen automatisk regression indikerar att det är en regression av variabeln mot sig själv. Således kan en autoregressiv modell av ordning p skrivas som där c är en konstant och et är vitt brus. Detta är som en multipelregression men med fördröjda värden av yt som prediktorer. Vi hänvisar till detta som en AR (p) modell. Autoregressiva modeller är anmärkningsvärt flexibla för hantering av ett brett spektrum av olika tidsseriemönster. De två serierna i Figur 8.5 visar serier från en AR (1) modell och en AR (2) modell. Ändring av parametrarna phi1, prickar, phip resulterar i olika tidsseriemönster. Felet i felet et kommer bara att ändra seriens skala, inte mönstren. Figur 8.5: Två exempel på data från autoregressiva modeller med olika parametrar. Vänster: AR (1) med yt 18 -0.8y et. Höger: AR (2) med yt 8 ​​1.3y -0.7y et. I båda fallen distribueras et normalt vitt brus med medel noll och varians en. För en AR (1) modell: När phi10, yt motsvarar vitt brus. När phi11 och c0, yt motsvarar en slumpmässig promenad. När phi11 och cne0, yt motsvarar en slumpmässig promenad med drift När phi1tt0, yt tenderar att svänga mellan positiva och negativa värden. Vi begränsar normalt autoregressiva modeller till stationära data, och då krävs några begränsningar av parametervärdena. För en AR (1) modell: -1 lt phi1 lt 1. För en AR (2) modell: -1 lt phi2 lt 1, phi1phi2 lt 1, phi2-phi1 lt 1. När pge3 är restriktionerna mycket mer komplicerade. R tar hand om dessa begränsningar vid beräkning av en modell.

No comments:

Post a Comment