Moving Media Modelli Per La Volatilità E Correlazione E Covarianza Matrici


Modello a media mobile per la volatilità e di correlazione e covarianza Matrici Citazioni Citazioni 5 Riferimenti Riferimenti 4 quotSuch volta evoluzione del modello di covarianza può essere applicato a molte serie temporali multivariate, compresa l'analisi della volatilità in finanza e 4 attività EEG in neurologia 5. Popolare si avvicina per la stima senza intoppi diverse matrici di covarianza sono le (EWMA) modello 25 e multivariata generalizzata autoregressiva eteroschedasticità condizionale (GARCH) modelli medi ponderati in modo esponenziale in movimento 26. Il primo cattura le tendenze senza problemi diversi, ma non riesce a gestire i dati mancanti, e richiede lunga serie per ottenere un'elevata precisione di stima 27. quot Mostra astratto Nascondi abstract abstract: riduzione dimensionalità in multivariata analisi delle serie storiche ha vaste applicazioni, che vanno dalla analisi dei dati finanziari per la ricerca biomedica. Tuttavia, elevati livelli di rumore ambientale e varie interferenze producono segnali non stazionari, che possono portare a prestazioni inefficiente dei metodi convenzionali. In questo documento, si propone un quadro riduzione dimensionalità non lineare usando mappe di diffusione su un collettore statistica appreso, che dà luogo alla costruzione di una rappresentazione low-dimensionale delle serie temporali non stazionario alta-dimensionale. Abbiamo dimostrato che le mappe di diffusione, con noccioli di affinità in base alla divergenza Kullback-Leibler tra le statistiche locali di campioni, consentono efficiente ravvicinamento delle distanze geodetiche a due a due. Per costruire il collettore statistico, si stima nel tempo in evoluzione distribuzioni parametriche per la progettazione di una famiglia di modelli generativi bayesiani. Il quadro proposto può essere applicato a problemi in cui le distribuzioni tempo-evoluzione (dati di temporalmente localizzata), piuttosto che i campioni stessi, sono azionati da un processo sottostante dimensionale ridotto. Forniamo efficienti parametro di stima e di riduzione della dimensionalità metodologie, e applicarli a due applicazioni: analisi musicale e epilettica-sequestro di previsione. Testo integrale dell'articolo aprile 2015 al fine di calcolare la correlazione quotin EWMA la covarianza è divisa per la radice quadrata del prodotto delle due stime EWMA varianza (Alexander, 2008). Cioè: quot Mostra astratto Nascondi Abstract Abstract: Questo articolo analizza se i mercati azionari dell'Europa sudorientale (SEE) sono diventati più integrati con i mercati azionari regionali e globali durante 2000s. Utilizzando una varietà di metodologie di co-integrazione dimostriamo che vedono i mercati azionari non hanno alcuna relazione di lungo periodo con i loro omologhi maturi. Ciò significa che VEDI mercati potrebbero essere immunizzati agli shock esterni. Abbiamo anche il tempo che varia modello correlazioni tra questi mercati utilizzando modelli (MGARCH) multivariata generalizzate Autoregressive Conditional Heteroschedastic così come la metodologia media mobile ponderata esponenziale (EWMA). I risultati mostrano che le correlazioni dei mercati azionari del Regno Unito e degli Stati Uniti con l'Europa sudorientale cambiamento del mercato nel corso del tempo. Questi cambiamenti nella correlazioni tra i nostri mercati di riferimento e le coppie di mercato individuale vedere non sono uniformi, anche se la prova di crescente convergenza tra Sud-Est Europa e del mercato azionario sviluppato è evidente. esaminati anche in questo lavoro se la struttura delle correlazioni tra i rendimenti degli indici nei diversi mercati è cambiato nelle diverse fasi della crisi finanziaria globale 2007-2009. Nel complesso i nostri risultati mostrano che i benefici di diversificazione sono ancora possibili per gli investitori che desiderano diversificare il proprio portafoglio tra i mercati a scoprire sviluppati ed emergenti. Testo integrale dell'articolo Feb 2013 Francesco Guidi Mehmet Ugur Mostra astratto Nascondi Abstract Abstract: gli analisti a reddito fisso sono abituati a monitorare alcuni rendimenti benchmark su base continuativa e di fornire stime puntuali per questi rendimenti, o per una combinazione di questi. Eppure, l'ottimizzazione dei portafogli a reddito fisso richiede una previsione accurata di non pochi dei rendimenti benchmark, ma di curve dei rendimenti completi. Questo capitolo deriva una previsione di curve uno o più di rendimento che è coerente con vista analisti. Il modello si basa su una nuova applicazione di analisi delle componenti principali (PCA). Essa può essere estesa ad altri mercati e non ha restrizioni sul numero di variabili di previsione, o il numero di visualizzazioni. Consideriamo alcuni esempi di previsione il governo curve dei rendimenti obbligazionari degli Stati Uniti, l'Eurozona e Regno Unito, contemporaneamente o no. Capitolo I modelli gennaio 2010 SSRN giornale elettronico Leonardo M. NogueiraMoving medi per volatilità e di correlazione e covarianza Matrici Trascrizione 1 JWPR0-Fabozzi c-cc novembre 00. Au: termine non compare nel testo 0 CAPITOLO CC modello a media mobile per la volatilità e correlazione e covarianza Matrici CAROL ALEXANDER, PhD presidente del Risk Management e direttore di ricerca, ICMA Centre, business School, l'Università di Reading proprietà di base di covarianza e correlazione Matrici medie Altrettanto calibrati metodologia statistica intervalli di confidenza per la varianza ed errori volatilità standard per equiponderato stimatori media equiponderato media mobile di covarianza Matrici Case Study: misurando la volatilità e la correlazione dei titoli del Tesoro USA decisione. Quanto tempo un dato periodo storico dovrebbe essere usato insidie ​​del Altrettanto Weighted Moving Metodo media Utilizzando medie mobili Altrettanto calibrati 0 medie mobili ponderata esponenzialmente metodologia statistica interpretazione delle proprietà lambda delle stime I EWMA modello Forecasting errori standard per EWMA previsioni della Sintesi RiskMetrics TM Metodologia Riferimenti Abstract: le volatilità e le correlazioni dei rendimenti di una serie di attività, fattori di rischio o tassi di interesse sono riassunti in una matrice di covarianza. Questa matrice è al centro di rischio e l'analisi di ritorno. Esso contiene tutte le informazioni necessarie per stimare la volatilità di un portafoglio, per simulare i valori correlati per i suoi fattori di rischio, di diversificare gli investimenti e di ottenere portafogli efficienti che hanno il trade-off ottimale tra rischio e rendimento. Entrambi i gestori del rischio e gestori patrimoniali richiedono matrici di covarianza che possono includere molti beni o fattori di rischio. Per esempio, in un sistema di gestione del rischio globale di una grande banca internazionale, tutti i principali curve dei rendimenti, indici azionari, tassi di cambio e prezzi delle materie prime sarà racchiuso in una grande matrice di covarianza dimensionale. Parole chiave: la volatilità, correlazione, covarianza, matrice, altrettanto ponderata media mobile, in modo esponenziale ponderata movimento EWMA media), smoothing costante, RiskMetrics, errore standard della volatilità del tempo varianze e covarianze sono parametri della distribuzione congiunta di attività o fattore di rischio) ritorni. E 'importante capire che sono osservabili. Essi possono essere stimati o previsione nel contesto di un modello unico. modelli a tempo continuo, utilizzati per la valutazione delle opzioni, sono spesso basate su processi stocastici per la varianza e covarianza. modelli a tempo discreto, utilizzati per la misurazione del rischio di portafoglio, si basano su modelli di serie storiche per la varianza e covarianza. In ogni caso, possiamo sempre e solo una stima o di varianza e covarianza alle previsioni nel contesto di un modello ipotizzato. Va sottolineato che non c'è vera variazione o covarianza assoluta. Ciò che è vero dipende solo dal modello statistico. Anche se sapevamo con certezza che il nostro modello era una corretta rappresentazione del processo di creazione dei dati, non potremmo mai misurare i veri parametri di varianza e covarianza proprio perché la varianza pura e covarianza non sono negoziati sul mercato. Un 2 JWPR0-Fabozzi c-cc novembre 00. modello a media mobile di volatilità e di correlazione e covarianza Matrici 0 eccezione a questo è il futures su indici di volatilità, come la volatilità del Chicago Board Options Scambio Indice VIX). Quindi, si osserva una certa volatilità neutrale al rischio. Tuttavia, questo capitolo si occupa di matrici di covarianza in misura fisica. Stimando una varianza secondo formule date da un modello, utilizzando dati storici, dà una varianza osservata che si realizza il processo assunto nel nostro modello. Ma questa varianza realizzata è ancora sempre e solo una stima. stime Esempi sono sempre soggette a errore di campionamento, il che significa che il loro valore dipende dai dati di esempio utilizzati. In sintesi, i diversi modelli statistici possono dare diverse stime di varianza e covarianza per due motivi: Un vero varianza o covarianza) è diversa tra i modelli. Come risultato, vi è un notevole grado di rischio modello inerente nella costruzione di una matrice di covarianza o correlazione. Cioè, molto diversi risultati possono essere ottenuti 0 utilizzando due modelli statistici diverse anche quando si basano esattamente sugli stessi dati. Le stime dei veri varianze e covarianze) sono soggetti a errore di campionamento. Cioè, anche quando si usa lo stesso modello per stimare una varianza, le nostre stime variano a seconda dei dati utilizzati. Sia modificando il periodo di campionamento e cambiando la frequenza delle osservazioni influenzerà la stima della matrice di covarianza. Questo capitolo tratta modello a media mobile a tempo discreto della serie per la varianza e covarianza, concentrandosi sulla 0 attuazione pratica del metodo e di fornire una spiegazione per i loro vantaggi e limiti. Altri strumenti statistici sono descritti in Alexander 00, Capitolo. Proprietà di base di covarianza e 0 CORRELAZIONE Matrici La matrice di covarianza è un quadrato, matrice simmetrica della varianza e covarianza di un insieme di m rendimenti delle attività, o sui fattori di rischio, dato da: Sigma Sigma Sigma m sigma sigma sigma m V sigma sigma sigma . Sigma m CC.) Sigma m sigmam Dal sigma sigma sigma m sigma sigma sigma m sigma sigma sigma. sigma m sigma m sigmam sigma sigma sigma m sigma sigma m sigma sigma sigma m sigma sigma m 0 sigma sigma sigma sigma sigma. m sigma sigma m m m sigma sigma sigmam una matrice di covarianza può anche essere espresso come V DCD CC.) dove D è una matrice diagonale con elementi uguali allo standard deviationsof rendimenti ec è la matrice di correlazione dei rendimenti. Cioè: Sigma Sigma. sigma m Sigma sigma sigma. sigma m 0 sigma sigma m Sigma m. sigmam 0. 0 sigma n. n Sigma. n 0 sigma n n. 0. 0 sigma n Quindi, la matrice di covarianza è semplicemente un modo matematicamente conveniente per esprimere le volatilità di attività e le loro correlazioni. Per illustrare come stimare una matrice di covarianza annuale e una matrice di covarianza 0-day, assumere tre le attività che hanno le seguenti volatilità e le correlazioni: volatilità Asset 0 Asset Asset correlazione 0. volatilità Asset 0 Asset Asset correlazione 0. Asset volatilità Asset Asset correlazione 0 . Poi, DC Quindi la matrice di covarianza annua DCD è: per trovare una matrice di covarianza 0 giorni in questo semplice caso, si è costretti ad assumere i rendimenti sono indipendenti e identicamente distribuite per utilizzare la radice quadrata del dominio tempo: cioè , che la matrice di covarianza h-giorno è h volte la matrice di covarianza giorno. In altre parole, la matrice di covarianza 0 giorni è ottenuta dalla matrice annuale dividendo ciascun elemento da, assumendo non ci sono giorni di negoziazione all'anno. In alternativa, possiamo ottenere la matrice 0-day utilizzando le volatilità 0-day in D. Si noti che sotto il rendimenti indipendenti e identicamente distribuite presupposto C non dovrebbe essere influenzata dal periodo di detenzione. Cioè, D C 3 JWPR0-Fabozzi c-cc novembre 00. fornisci parte del titolo, perché ogni volatilità è divisa dal cioè la radice quadrata di). Poi si ottiene lo stesso risultato di cui sopra, i. e noti che V è semidefinita positiva se e solo se C è semidefinita positiva. D è sempre definita positiva. Quindi, il semidefiniteness positivo di V dipende solo dal modo di costruire la matrice di correlazione. Si tratta di una sfida per generare significativi, matrici di correlazione semidefinita positiva che sono abbastanza grandi per i manager di essere in grado di netto i rischi in tutte le posizioni in una ditta. ipotesi semplificatrici sono necessari. Per esempio RiskMetrics) utilizza una metodologia molto semplice sulla base di medie mobili al fine di stimare molto grandi matrici definite positive che coprono centinaia di fattori di rischio per i mercati finanziari globali. Questo è discusso più avanti.) MEDIE equiponderato Questa sezione descrive come la volatilità e correlazione sono stimati e prevedere applicando pesi uguali a determinati dati serie storiche. Descriviamo una serie di trappole e limitazioni di questo approccio e come risultato consigliabile che tali modelli essere utilizzati come indicazione della possibile gamma volatilità a lungo termine e correlazione. Come vedremo, questi modelli sono di dubbia validità per la volatilità a breve termine e la previsione di correlazione. Nel seguito, per semplicità, assumiamo che il rendimento medio è pari a zero e che i rendimenti sono valutate al frequenza giornaliera, se non diversamente specificato. Un rendimento medio pari a zero è un presupposto standard per la valutazione dei rischi sulla base di serie storiche di dati giornalieri, ma se i rendimenti sono misurati su intervalli più lunghi potrebbe non essere molto realistico. Poi la stima equiponderato della varianza dei rendimenti è la media dei rendimenti squadrate e il corrispondente stima della volatilità è la radice quadrata di questo espresso in percentuale annua. La stima altrettanto ponderata della covarianza di due rendimenti è la media dei prodotti trasversali dei rendimenti e stima equiponderato della loro correlazione è il rapporto tra la covarianza alla radice quadrata del prodotto delle due varianze. Pari ponderazione dei dati storici è stato il primo metodo statistico ampiamente accettato per la volatilità previsione e correlazione dei rendimenti delle attività finanziarie. Per molti anni, è stato lo standard di mercato per prevedere volatilità media nei prossimi giorni h considerando una media ponderata dei rendimenti altrettanto quadrati negli ultimi h giorni. Questo metodo è stato chiamato la volatilità del tempo storico. Al giorno d'oggi, molte diverse tecniche di previsione statistica possono essere applicati ai dati storici di serie temporali così è fonte di confusione per chiamare questo metodo altrettanto ponderato il metodo storico. Tuttavia, questa terminologia piuttosto confusa rimane standard. cambiamenti percepiti nella volatilità e correlazione hanno conseguenze importanti per tutti i tipi di decisioni di gestione del rischio, sia a che fare con la capitalizzazione, l'allocazione delle risorse o di strategie di copertura. In effetti si tratta di questi parametri dei rendimenti distribuzioni che sono i mattoni fondamentali dei modelli di valutazione del rischio di mercato. E 'quindi essenziale capire che tipo di variabilità dei rendimenti del modello è misurata. Il modello assume che un processo indipendenti e identicamente distribuite genera rendimenti. Cioè, sia della volatilità e correlazione sono costanti e la radice quadrata del tempo regola si applica. Questa ipotesi ha ramificazioni importanti e noi avrà cura di spiegare questi con molta attenzione. Metodologia statistica La metodologia per la costruzione di una matrice di covarianza riferiscono ugualmente medie ponderate può essere descritto in termini molto semplici. Si consideri un insieme di serie temporali i. m t. T. Qui l'ho pedice indica il fattore di attività o di rischio, e t indica il momento in cui viene misurato ogni ritorno. Noi supporre che ogni ritorno ha una media pari a zero. Poi una stima imparziale della varianza incondizionata del esima torna variabile al tempo t, sulla base dei T più recenti rendimenti giornalieri come:. Circsigma i, t T ri, TLL T CC) Il stimatore termine si intende il valore atteso dello stimatore è uguale al valore reale. Si noti che CC.) Dà una stima non distorta della varianza ma questo non è lo stesso come il quadrato di una stima imparziale della deviazione standard. Cioè, E circsigma) Sigma ma E circsigma) Sigma. Quindi, in realtà il circ cappello dovrebbe essere scritto su tutta sigma. Ma è generalmente inteso che il circsigma notazione è utilizzato per indicare la stima o previsione di una varianza, e non il quadrato di una stima della deviazione standard. Così, nel caso in cui il rendimento medio è zero, abbiamo E circsigma) sigma. Se il rendimento medio non è assunto pari a zero abbiamo bisogno di stimare questo dal campione, e questo pone a) vincolo lineare la varianza stimata dai dati di esempio. In questo caso, per ottenere una stima imparziale dovremmo usare T) ri, t l r i l Si, t CC.) T dove r i è il rendimento medio sulla serie esimo, si considera l'intero campione di punti dati T. Il modulo di media-deviazione sopra può essere utile per stimare la varianza utilizzando dati mensili o addirittura settimanali nel corso di un periodo in cui i rendimenti medi sono significativamente diversi da zero. Tuttavia, con dati giornalieri il rendimento medio è di solito molto piccolo e poiché, come vedremo in seguito, gli errori indotti da altre ipotesi sono enormi rispetto al l'errore indotto 4 JWPR0-Fabozzi c-cc novembre 00. modello a media mobile di Volatilità e correlazione e covarianza matrici assumendo la media è pari a zero, come normalmente si usa la forma CC.). Allo stesso modo, una stima imparziale della covarianza incondizionata di due a zero rendimenti medi al tempo t, sulla base del T più recenti rendimenti giornalieri è:. Circsigma i, j, tnri, tlrj, TLL T CC) Come accennato in precedenza, noi normalmente ignorare la regolazione deviazione media con dati giornalieri. La matrice di covarianza stima incondizionata altrettanto ponderata al tempo t per un insieme di rendimenti k è quindi circV t circsigma i, j, t) per i, j. K. In parole povere, il termine incondizionato si riferisce al fatto che è la conduzione lungo il grado o o varianza media che stiamo valutando, al contrario di una varianza condizionale che può cambiare da giorno per giorno ed è sensibile agli eventi recenti. Come accennato nell'introduzione, usiamo la volatilità termine per riferirsi alla deviazione standard annualizzata. Le stime stesso peso di volatilità e correlazione sono ottenuti in due fasi. In primo luogo, si ottiene una stima imparziale della matrice di covarianza incondizionata utilizzando medie altrettanto ponderata dei rendimenti al quadrato e prodotti trasversali di rendimenti e lo stesso numero n di punti di dati ogni volta. Poi questi vengono convertiti in stime della volatilità e correlazione applicando le formule abituali. Per esempio, se i rendimenti sono misurati alla frequenza quotidiana e ci sono giorni di negoziazione all'anno: equiponderato volatilità circsigma t equiponderato correlazione circ ij, t circsigma ij, t circsigma i, t circsigma j, t CC) Nel altrettanto. metodologia ponderata la matrice di covarianza previsto è semplicemente considerato come la stima attuale, non essendo altro nel modello di distinguere una stima da una previsione. L'orizzonte di rischio originale per la matrice di covarianza è data dalla frequenza dei dati rendimenti giornalieri darà la previsione matrice di covarianza per dieci giorni, rendimenti settimanali daranno la matrice di covarianza previsioni settimane di e così via. Quindi, poiché il modello assume che i ritorni sono indipendenti e identicamente distribuite possiamo utilizzare la radice quadrata del dominio tempo per convertire un dieci giorni in una previsione matrice di covarianza h-giorno, semplicemente moltiplicando ogni elemento della matrice - day da h. Analogamente, una previsione mensile può essere ottenuta per la previsione settimanale moltiplicando ciascun elemento da, e così via. Dopo aver ottenuto una previsione della varianza, la volatilità, covarianza e correlazione dovremmo chiederci: come accurata è questa previsione Per questo potremmo fornire sia un intervallo di confidenza, cioè un intervallo entro il quale noi siamo abbastanza certi che il vero parametro mentire, o un errore standard per la nostra stima dei parametri. L'errore standard dà una misura della precisione della stima e può essere utilizzato per verificare se il vero parametro può assumere un certo valore, o si trovano in un determinato intervallo. La prossima sezione mostrano alcuni come tali intervalli di confidenza e gli errori standard possono essere costruiti. Intervalli di confidenza per la varianza e volatilità Un intervallo di confidenza per la vera Sigma varianza quando si stima di una media ponderata altrettanto possono essere derivate utilizzando una semplice applicazione di teoria del campionamento. Supponendo che la stima della varianza si basa su n rendimenti normalmente distribuite con una media assunto pari a zero, allora T circsigma Sigma avrà una distribuzione del chi quadrato con i gradi di libertà T vedere Freund). A 00 alfa) intervallo di confidenza bilaterale per T circsigma sigma sarebbe quindi prendere l'alfa modulo chi, t, chi alpha, t) e un calcolo semplice dà l'intervallo di confidenza associato per la varianza sigma come:) T circsigma T circsigma, CC .) chi alfa, t chi alfa, t Ad esempio, un intervallo di confidenza per una previsione varianza altrettanto ponderato in base a 0 osservazioni si ottiene utilizzando i valori critici chi-quadrato superiore e inferiore: chi 0., 0. e chi 0.0,0. Così l'intervallo di confidenza è 0. circsigma. circsigma) e valori esatti sono ottenuti sostituendo il valore della stima della varianza. Figura CC. illustra i limiti superiori e inferiori per un intervallo di confidenza per una varianza prevedere quando la stima della varianza altrettanto ponderato è uno. Vediamo che all'aumentare T dimensione del campione, la larghezza dell'intervallo di confidenza diminuisce marcatamente modo incremento T da bassi valori. Siamo in grado di girare subito a intervalli di confidenza che si applicherebbero ad una stima della volatilità. Ricordiamo che la volatilità, essendo la radice quadrata della varianza, è semplicemente una trasformazione diminuzione monotona della varianza. I percentili sono invarianti rispetto a qualsiasi aumento trasformazione strettamente monotona. Cioè, se f è qualunque crescente funzione monotona di una variabile casuale X allora: P c l lt X lt c u) P f c l) lt f X) lt f c u)) Figura CC. 00 cc.) 00 Intervallo di confidenza per la varianza Previsioni 5 JWPR0-Fabozzi c-cc novembre 00. fornisci parte del titolo di proprietà CC.) Fornisce un intervallo di confidenza per una volatilità storica sulla base dell'intervallo di confidenza CC.). Poiché x è una funzione crescente monotona di x, prende onesimply la radice quadrata dei limiti inferiore e superiore per la varianza equiponderato. Per esempio se un intervallo di confidenza per la varianza è, allora per la volatilità associata è,. E, dal momento che x è monotona crescente per x gt 0, il contrario vale anche. Questo se un intervallo di confidenza per la volatilità è, allora per la varianza associata è,. Errori standard per Altrettanto calibrati stimatori media Uno stimatore di qualsiasi parametro ha una distribuzione e una stima puntuale della volatilità è solo l'aspettativa della distribuzione dello stimatore della volatilità. La funzione di distribuzione del equamente ponderato stimatore volatilità media non è solo radice quadrata della funzione di distribuzione della stima della varianza corrispondente. Invece, può essere derivato dalla distribuzione dello stimatore di varianza tramite una semplice trasformazione. Dal momento che la volatilità è la radice quadrata della varianza, la funzione di densità dello stimatore volatilità è gcircsigma) circsigma hcircsigma) per circsigma GT0 CC.) Dove h circsigma) è la funzione di densità dello stimatore di varianza. Questo segue dal fatto che se y è una funzione monotona e derivabile di x allora la loro probabilità Densità g.) E h.) Sono collegate come gy) dxdy hx) seefreund. Si noti che quando y x, y dxdy e così GY) y hx). Oltre alla stima puntuale o aspettativa, si potrebbe anche stimare la deviazione standard della distribuzione dello stimatore. Questo si chiama l'errore standard della stima. L'errore standard determina la larghezza di un intervallo di confidenza per una previsione e indica come affidabile una previsione è considerato. Il più ampio l'intervallo di confidenza, tanto più incertezza c'è nelle previsioni. Gli errori standard per le stime di varianza media ponderata ugualmente si basano su una ipotesi di normalità per i ritorni. Modello a media mobile per scontato che i rendimenti sono indipendenti e identicamente distribuite. Ora assumendo normalità anche, in modo che i rendimenti sono normalmente e indipendentemente distribuiti, indicato con NID0, sigma), si applica l'operatore varianza CC.). Si noti che se X i sono variabili casuali indipendenti i. T) allora f X i) arealso indipendente per ogni monotona differenziabile funzione f. Quindi, i rendimenti squadrate sono indipendenti, e noi abbiamo: V circsigma t) T i v rt i) T CC.0) Poiché VX) EX) EX) per qualsiasi variabile casuale X, Vrt) Er t) Er t). Con lo zero significa assunzione Ert) Sigma e normalità assumendo, Ert) sigma. hence per ogni t. V rt) Sigma Sigma Sigma e sostituendo questo in CC.0) dà V circsigma t) Sigma CC) T Quindi, l'errore standard di una stima della varianza media altrettanto ponderato in base a T media nulla ritorna al quadrato è sigma T o semplicemente, quando espresso in percentuale della varianza. Per esempio l'errore T standard della stima varianza è 0 quando le osservazioni vengono utilizzati nella stima, e 0 quando 00 osservazioni sono utilizzati nella stima. Che cosa circa l'errore standard dello stimatore della volatilità per derivare questi, in primo luogo abbiamo dimostriamo che per ogni funzione f continuamente differenziabile e variabile aleatoria X:. V f x)) f EX))) VX CC) Per dimostrare questo, prendiamo un secondo Per sviluppo di Taylor di f attorno alla media di X e poi prendere le aspettative. Vedere Alexander 00), capitolo. Questo dà. E f x)) f EX)) f EX)) VX) CC) Allo stesso modo, E f x)) f EX)) f EX)) f EX)) f EX))) VX) CC). ancora una volta ignorando i termini di ordine superiore. . Il risultato CC) segue osservando che:.. V f x)) E f x)) E f x)) Ora possiamo usare CC) e CC) per derivare l'errore standard di una stima storica di volatilità. Da CC) abbiamo V circsigma) circsigma) V circsigma) e così:. V circsigma) V circsigma)) CC) circsigma Ora utilizzando CC) in CC) si ottiene la varianza della volatilità stimatore come:... V circsigma) ) sigma) sigma CC.) sigma TT quindi l'errore standard dello stimatore volatilità come percentuale della volatilità è T). Questo risultato indica che l'errore standard dello stimatore volatilità come percentuale della volatilità) è circa la metà delle dimensioni del errore standard della varianza come percentuale della varianza). Così, come percentuale della volatilità, l'errore standard della volatilità stimatore storico è di circa 0 quando le osservazioni vengono utilizzati nella stima, e quando 00 osservazioni sono utilizzati nella stima. Gli errori standard a muoversi stime della volatilità media ponderata altrettanto diventano molto grandi quando solo poche osservazioni 6 JWPR0-Fabozzi c-cc novembre 00. modello a media mobile per la volatilità e di correlazione e covarianza matrici vengono utilizzati. Questo è uno dei motivi per cui si consiglia di utilizzare un lungo periodo di media nelle stime storiche di volatilità. E 'più difficile per derivare l'errore standard di un altrettanto ponderate stime medie di correlazione. Tuttavia, si può dimostrare che V circ ij) T CC) e quindi abbiamo la seguente distribuzione t per la stima di correlazione diviso per il suo errore standard:. Circ ij T circ ij t T CC) In particolare, il significato di. una stima correlazione dipende dal numero di osservazioni che vengono utilizzati nel campione. Per illustrare test per la significatività della correlazione storica, supponiamo che una stima correlazione storica 0. si ottiene utilizzando osservazioni. E 'questo significativamente maggiore di zero L'ipotesi nulla è H 0. 0, l'ipotesi alternativa è H. GT0 e la statistica test è CC.). Calcolare il valore di questa statistica dato i nostri dati dà t. . Anche il 0 valore critico superiore del t-distribuzione con gradi di libertà è superiore a questo valore è infatti.). Quindi non possiamo rifiutare l'ipotesi nulla: 0. Non è significativamente maggiore di zero quando stimati dalle osservazioni. Tuttavia, se lo stesso valore 0. aver ottenuto un campione con, per esempio, 00 osservazioni nostra t-valore sarebbe been.0, che è significativamente positiva al. livello, perché la tomaia. valore critico della distribuzione t con i gradi di libertà. Altrettanto Moving medio ponderato di covarianza Matrici Una media mobile altrettanto ponderata è calcolata su una finestra di dati di dimensioni fisse che è rotolato nel tempo, ogni giorno aggiungendo il nuovo ritorno e togliere il ritorno più antica. La lunghezza di questa finestra di dati, chiamato anche il periodo di look-retro o periodo di media, è l'intervallo di tempo durante il quale si calcola la media dei rendimenti a quadretti per varianza) oi prodotti trasversali medi dei rendimenti per covarianza). In passato, alcuni grandi istituti finanziari hanno perso un sacco di soldi perché hanno usato il modello a media mobile altrettanto ponderato in modo inappropriato. Non sarei sorpreso se molto più denaro è stato perso a causa dell'uso inesperto di questo modello in futuro. Il problema non è il modello stesso, dopo tutto, si tratta di una formula statistica perfettamente rispettabile per uno stimatore i problemi derivano dalla sua applicazione inadeguata in un contesto serie storica. A fallace) argomentazione è la seguente: previsioni a lungo termine dovrebbero essere influenzato da fenomeni di breve termine, come la volatilità di clustering per cui sarà opportuno prendere la media su un periodo molto lungo storico. Ma le previsioni a breve termine dovrebbero rispecchiare mercato attuale con Jan-00 lug-00 Jan-0 Figura CC. condizioni lug-0 SP0 MIB0 Gen-0 Lug-0 Jan-0 Lug-0 Jan-0 Lug-0 Jan-0 Lug-0 MIB 0 e SampP 00 giornaliera Primo Gennaio, il che significa che solo i rendimenti passati immediati dovrebbero essere usati . Alcune persone usano un periodo di media storica di giorni T al fine di prevedere in avanti T Days altri usano periodi più leggeri più storica rispetto al periodo di previsione. Ad esempio, per una previsione 0-day, alcuni praticanti potrebbero guardare indietro 0 giorni o più. Ma questo approccio apparentemente sensato in realtà induce un grave problema. Se uno o più estreme rendimenti è incluso nel periodo medio, la volatilità o della correlazione) previsione può saltare improvvisamente verso il basso per un livello completamente diverso in un giorno in cui assolutamente non è successo niente nei mercati. E prima di saltare misteriosamente verso il basso, una previsione storica sarà molto più grande di quanto dovrebbe essere. Figura CC. illustra i prezzi di chiusura giornalieri del MIB 0 indice azionario italiano tra l'inizio del mese di gennaio 000 e la fine di aprile 00 e le confronta con i prezzi dell'indice SampP 00 nello stesso periodo. I prezzi sono stati scaricati da Yahoo Finance. Vi mostreremo come calcolare le 0-day, 0-day, e 0-day volatilità storiche di questi due indici azionari e confrontare graficamente. Costruiamo tre diversi ugualmente ponderati in movimento stime medie di volatilità per il MIB 0, con T 0 giorni, 0 giorni e 0 giorni, rispettivamente. Il risultato è mostrato in Figura CC. Vediamo prima concentriamo sulla prima parte del periodo di dati e del periodo dopo il settembre 00), attacchi terroristici in particolare. L'indice italiano ha reagito alla notizia molto più di quanto la maggior parte degli altri indici. La stima della volatilità sulla base di 0 giorni di dati è passato da quasi in un giorno, e poi ha continuato a crescere ulteriormente, fino a. Poi, all'improvviso, esattamente 0 giorni dopo l'evento, la volatilità 0-day saltò giù di nuovo a 0. Ma nulla di particolare successo nel mercato italiano in quel giorno. Il drastico calo della volatilità era solo un fantasma dell'attacco terroristico: Non è stato un riflesso a tutte le reali condizioni di mercato in quel momento. Caratteristiche simili sono evidenti nella 0-day e 0-day serie della volatilità. Each series jumps us immediately after the event, and then, either 0 or 0 days afterward, jump down again. On November, 00, the three different look-back periods gave volatility estimates of 0, , and , but they are all based on the same 7 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE 0 0 0 0 0 0-day Volatility 0-day Volatility 0-day Volatility May-00 Sep-00 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 Figure CC. Equally Weighted Moving Average Volatility Estimates of the MIB 0 Index underlying data and the same independent and identically distributed assumption for the returns Other such ghost features are evident later in the period, for instance, in March 00 and March 00. Later on in the period, the choice of look-back period does not make so much difference: The three volatility estimates are all around the 0 level. Case Study: Measuring the Volatility and Correlation of U. S Treasuries The interest rate covariance matrix is an important determinant of the value at risk VaR) of a cash flow. In this section, we show how to estimate the volatilities and correlations of different maturity U. S. zero-coupon interest rates using the equal weighted moving average method. Consider daily data on constant maturity U. S. Treasury rates between January, and March, 00. The rates are graphed in Figure CC. It is evident that rates followed marked trends over the period. From a high of about in, by the end of the 0 0 m m y y y y y0 00 00 00 0 0 0 000 000 000 000 000 Figure CC. U. S. Treasury Rates Source: data. htm. same the short-term rates were below . Also, periods where the term structure of interest rates is relatively flat are interspersed with periods when the term structure is upward sloping, sometimes with the long-term rates being several percent higher than the short-term rates. During the upward sloping yield curve regimes, especially the latter one from 000 to 00, the medium - to long-term interest rates are more volatile than the short-term rates, in absolute terms. However, it is not clear which rates are the most volatile in relative terms, as the short rates are much lower than the medium to long-term rates. There arethreedecisionsthatmustbemade: Decision. How long an historical data period should be used Decision. Which frequency of observations should be used Decision. Should the volatilities and correlations be measured directly on absolute changes in interest rates, or should they be measured on relative changes and then the result converted into absolute terms Decision. How Long a Historical Data Period Should Be Used The equally weighted historical method gives an average volatility, or correlation, over the sample period chosen. The longer the data period, the less relevant that average may be today i. e. at the end of the sample). Looking at Figure CC. it may be thought that data from 000 onward, and possibly also data during the first half of the 0s, are relevant today. However, we may not wish to include data from the latter half of the 0s, when the yield curve was flat. Decision. Which Frequency of Observations Should Be Used This is an important decision, which depends on the end use of the covariance matrix. We can always use the square root of time rule to convert the holding period of a covariance matrix. For instance, a 0-day covariance matrix can be converted into a - day matrix by dividing each element by 0 and it can be converted into an annual covariance matrix by multiplying each element by. However, this conversion is based on the assumption that variations in interest rates are independent and identically distributed. Moreover, the data becomes more noisy when we use high-frequency data. For instance, daily variations may not be relevant if we only ever want to measure covariances over a 0-day period. The extra variation in the daily data is not useful, and the crudeness of the square root of time rule will introduce an error. To avoid the use of crude assumptionsitisbesttouseadatafrequencythatcorresponds to the holding period of the covariance matrix. However, the two decisions above are linked. For instance, if data are quarterly, we need a data period of five or more years otherwise, the standard error of the estimates will be very large. But then our quarterly covariance matrix represents an average over many years that may not be thought of as relevant today. If data are daily, then 8 JWPR0-Fabozzi c-cc November, 00. Moving Average Models for Volatility and Correlation, and Covariance Matrices 0 0 Au: Can head be shortened just one year of data provides plenty of observations to measure the historical model volatilities and correlations accurately. Also, a history of one year is a better representation of today s markets than a history of five or more years. However, if it is a quarterly covariance matrix that we seek, we have to apply the square root of time rule to the daily matrix. Moreover, the daily variations that are captured by the matrix may not be relevant information at the quarterly frequency. In summary, there may be a trade-off between using data at the relevant frequency and using data that are relevant today. It should be noted that such a trade-off between Decisions and above applies to the measurement of risk in all asset classes and not only to interest rates. In interest rates, there is another decision to make before we can measure risk. Since the price value of a basis point PV0) sensitivity vector is usually measured in basis points, an interest rate covariance matrix is also usually expressed in basis points. Hence, we have Decision. Decision. Should the Volatilities and Correlations Be Measured Directly on Absolute Changes in Interest Rates, or Should They Be Measured on Relative Changes and Then the Result Converted into Absolute Terms If rates have been trending over the data period the two approaches are likely to give very different results. One has to make a decision about whether relative changes or absolute changes are the more stable. In these data, for example, an absolute change of basis points in was relatively small, but in 00 it would have represented a very large change. Hence, to estimate an average daily covariance matrix over the entire data sample, it may be more reasonable to suppose that the volatilities and correlations should be measured on relative changes and then converted to absolute terms. Note, however, that a daily matrix based on the entire sample would capture a very long-term average of volatilities and correlations between daily U. S. Treasury rates, indeed it is a - year average that includes several periods of different regimes in interest rates. Such a long-term average, which is useful for long-term forecasts may be better based on lower frequency data e. g. monthly). For a - day forecast horizon. we shall use only the data since January, 000. To make the choice for Decision, we take both the relative daily changes the difference in the log rates) and the absolute daily changes the differences in the rates, in basis-point terms). Then we obtain the standard deviation, correlation, and covariance in each case, and in the case of relative changes we translate the results into absolute terms. We now compare results based on relative changes with result based on absolute changes. The correlation matrix estimates based on the period January, 000, to March, 00, are shown in Table CC. The matrices are similar. Both matrices display the usual characteristics of an interest rate term structure: Correlations are higher at the long end than the short end, and they decrease as the difference between the two maturities increases. Table CC. Correlation of U. S. Treasuries a) Based on Relative Changes m m y y y y y0 m.00 m y y y y y b) Based on Absolute Changes m m y y y y y0 m.00 m y y y y y Table CC. compares the volatilities of the interest rates obtained using the two methods. The figures in the last row of each table represent an average absolute volatility for each rate over period January, 000 to March, 00. Basing this first on relative changes in interest rates, Table CC. a) gives the standard deviation of relative returns volatility in the first row. The long-term rates have the lowest standard deviations, and the medium-term rates have the highest standard deviations. These standard deviations are then annualized by multiplying by, Au: assuming each rate is independent and identically distributed) and multiplied by the level of the interest rate on March, 00. There was a very marked upward sloping yield curve on March, 00. Hence the long-term rates are more volatile than the short-term rates: for instance the - month rate has an absolute volatility of about basis points, but the absolute volatility of the 0-year rates is about basis points. Table CC. b) measures the standard deviation of absolute changes in interest rates over the period January, 000 to March, 00, and then converts this into volatility by multiplying by. We again find that the long - Au: term rates are more volatile than the short-term rates for instance, the six-month rate has an absolute volatility of about basis points, but the absolute volatility of the five-year rates is about 0 bps. It should be noted that it is quite unusual for long-term rates to be more volatile than short-term rates. But from 000 to 00 the U. S. Fed was exerting a lot of control on short-term rates, to bring down the general level of interest rates. However the market expected interest rates to rise, because the yield curve was upwards sloping during most of the period.) We find that correlations were similar, whether based on relative or absolute changes. But Table CC. shows there is a substantial difference between the volatilities obtained using the two methods. When volatilities are based directly on the absolute changes, they are slightly lower at the short end and substantially lower for the medium-term rates. symbol ok symbol ok 9 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE Table CC. Volatility of U. S. Treasuries a) Based on Relative Changes m m y y y y y0 Standard deviation Yield Curve on March, Absolute volatility in basis points) b) Based on Absolute Changes m m y y y y y0 Standard deviation Absolute volatility in basis points) Finally, we obtain the annual covariance matrix of absolute changes in basis point terms) by multiplying the correlation matrix by the appropriate absolute volatilities and to obtain the one-day covariance matrix we divide by. The results are shown in Table CC. Depending on whether we base estimates of volatility and correlation on relative or absolute changes in interest rates, the covariance matrix can be very different. In this case, it is short-term and medium-term volatility estimates that are the most affected by the choice. Given that we have used the equally weighted average methodology to construct the covariance matrix, the underlying assumption is that volatilities and correlations are constant. Hence, the choice between relative or absolute changes depends on which are the more stable. In countries with very high interest rates, or when interest rates have been trending during the sample period, relative changes tend to be more stable than absolute changes. In summary, there are four crucial decisions to be made when estimating a covariance matrix for interest rates. Which statistical model should we employ. Which historical data period should be used Table CC. One-Day Covariance Matrix of U. S. Treasuries, in Basis Points a) Based on Relative Changes m m y y y y y0 m.0 m. y. 0 y y. y y b) Based on Absolute Changes m m y y y y y0 m 0.0 m. y..0. y..0. y. y y Should the data frequency be daily, weekly, monthly or quarterly. Should we base the matrix on relative or absolute changes in interest rates The first three decisions must also be made when estimating covariance matrices in other asset classes such as equities, commodities, and foreign-exchange rates. There is a huge amount of model risk involved with the construction of covariance matrices very different results may be obtained depending on the choice made. Pitfalls of the Equally Weighted Moving Average Method The problems encountered when applying this model stem not from the small jumps that are often encountered in financial asset prices, but from the large jumps that are only rarely encountered. When a long averaging period is used, the importance of a single extreme event is averaged out within a large sample of returns. Hence, a moving average volatility estimate may not respond enough to a short, sharp shock in the market. This effect is clearly visible in 00, where only the 0-day volatility rose significantly over a matter of a few weeks. The longer-term volatilities did rise, but it took several months for them to respond to the market falls in the MIB during mid-00. At this point in time there was actually a cluster of volatility, which often happens in financial markets. The effect of the cluster was to make the longer-term volatilities rise, eventually, but then they took too long to return to normal levels. It was not until markets returned to normal in late 00 that the three volatility series in Figure CC. are in line with each other. When there is an extreme event in the market, even just one very large return will influence the T-day moving average estimate for exactly T days until that very large squared return falls out of the data window. Hence volatility will jump up, for exactly T days, and the fall dramatically on day T , even though nothing happened in the market on that day. This type of ghost feature is simply an artefact of the use of equal weighting. The problem is that extreme events are just as important to current estimates, whether they occurred yesterday or a very long time ago. A single large, squared return remains just as important T days ago as it was yesterday. It will affect the T-day volatility or correlation estimate for exactly 10 JWPR0-Fabozzi c-cc November, 00. 0 Moving Average Models for Volatility and Correlation, and Covariance Matrices 0 Au: symbol ok T days after that return was experienced, and to exactly the same extent. However, with other models we would find that volatility or correlation had long ago returned to normal levels. Exactly T days after the extreme event, the equally weighted moving average volatility estimate mysteriously drops back down to about the correct level that is, provided that we have not had another extreme return in the interim Note that the smaller is T, the number of data points used in the data window, the more variable the historical volatility series will be. When any estimates are based on a small sample size they will not be very precise. The larger the sample size the more accurate the estimate, because sampling errors are proportional to T. For this reason alone a short moving average will be more variable than a long moving average. Hence, a 0-day historic volatility or correlation) will always be more variable than a 0-day historic volatility or correlation) that is based on the same daily return data. Of course, if one really believes in the assumption of constant volatility that underlies this method, one should always use as long a history as possible, so that sampling errors are reduced. It is important to realize that whatever the length of the historical averaging period and whenever the estimate is made, the equally weighted method is always estimating the same parameter: the unconditional volatility or correlation) of the returns. But this is a constant it does not change over the process. Thus, the variation in T-day historic estimates can only be attributed to sampling error: there is nothing else in the model to explain this variation. It is not a time-varying volatility model, even though some users try to force it into that framework. The problem with the equally weighted moving average model is that it tries to make an estimate of a constant volatility into a forecast of a time-varying volatility. Similarly, it tries to make an estimate of a constant correlation into a forecast of a time-varying correlation. No wonder financial firms have lost of lot of money with this model It is really only suitable for long-term forecasts of average volatility, or correlation, for instance over a period of between six months to several years. In this case, the lookback period should be long enough to include a variety of price jumps, with a relative frequency that represents the modeler expectations of the probability of future price jumps of that magnitude during the forecast horizon. Using Equally Weighted Moving Averages To forecast a long-term average for volatility using the equally weighted model, it is standard to use a large sample size T in the variance estimate. The confidence intervals for historical volatility estimators given earlier in this chapter provide a useful indication of the accuracy of these long-term volatility forecasts and the approximate standard errors that we have derived earlier in this chapter give an indication of variability in long-term volatility. Here, we saw that the variability in estimates decreased as the sample size increased. Hence, long-term volatility that is forecast from this model may prove useful. When pricing options, it is the long-term volatility that is most difficult to forecast. Options trading often focuses on short-maturity options and long-term options are much less liquid. Hence, it is not easy to forecast a long-term implied volatility. Long-term volatility holds the greatest uncertainty, yet it is the most important determinant of long-term option prices. We conclude this section with an interesting conundrum, considering two hypothetical historical volatility modellers, whom we shall call Tom and Dick, both forecasting volatility over a - month risk horizon based on equally weighted average of squared returns over the past months of daily data. Imagine that is it January 00 and that on October, 00 the market crashed, returning in the space of a few days. So some very large jumps occurred during the current data window, albeit three months ago. Tom includes these extremely large returns in his data window, so his ex-post average of squared returns, which is also his volatility forecast in this model, will be very high. Because of this, Tom has an implicit belief that another jump of equal magnitude will occur during the forecast horizon. This implicit belief will continue until one year after the crash, when those large negative returns fall out of his moving data window. Consider Tom s position in October 00. Up to the middle of October he includes the crash period in his forecast but after that the crash period drops out of the data window and his forecast of volatility in the future suddenly decreases as if he suddenly decided that another crash was very unlikely. That is, he drastically changes his belief about the possibility of an extreme return. So, to be consistent with his previous beliefs, should Tom now bootstrap the extreme returns experienced during October 00 back into his data set And what about Dick, who in January 00 does not believe that another market crash could occur in his - month forecast horizon So, in January 00, he should somehow filter out those extreme returns from his data. Of course, it is dangerous to embrace the possibility of bootstrapping in and filtering out extreme returns in data in an ad hoc way, before it is used in the model. However, if one does not do this, the historical model can imply a very strange behavior of the beliefs of the modeler. In the Bayesian framework of uncertain volatility the equally weighted model has an important role to play. Equally weighted moving averages can be used to set the bounds for long-term volatility that is, we can use the model to find a range sigma min, sigma max for the long-term average volatility forecast. The lower bound sigma min can be estimated using a long period of historical data with all the very extreme returns removed and the upper bound sigma max can be estimated using the historical data where the very extreme returns are retained and even adding some A modeler s beliefs about long-term volatility can be formalized by a probability distribution over the range sigma min, sigma max . This distribution would then be carried through for the rest of the analysis. For instance, upper and lower price bounds might be obtained for long-term exposures with option like structures, such as warrants on a firm s equity or convertibles bonds. This type of Bayesian method, which provides a price distribution rather than a single price, will be increasingly used in market risk management in the future. 11 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE EXPONENTIALLY WEIGHTED MOVING AVERAGES An exponentially weighted moving average EWMA) avoids the pitfalls explained in the previous section because it puts more weight on the more recent observations. Thus as extreme returns move further into the past as the data window slides along, they become less important in the average. Statistical Methodology An exponentially weighted moving average can be defined on any time series of data. Say that on date t we have recorded data up to time t, so we have observations x t. x ). The exponentially weighted average of these observations is defined as: EWMAx t. x ) x t lambdax t lambda x t . lambda t x lambda lambda . lambda t where lambda is a constant, 0 ltlambdalt, called the smoothing or the decay constant. Since lambda T 0asT the exponentially weighted average places negligible weight on observations far in the past. And since lambda lambda . lambda) we have, for large t, EWMAx t. x ) x t lambdax t lambda x t lambda lambda . lambda) i lambda x t i This is the formula that is used to calculate exponentially weight moving average EWMA) estimates of variance with x being the squared return) and covariance with x being the cross product of the two returns). As with equally weighted moving averages, it is standard to use squared daily returns and cross products of daily returns, not in mean deviation form. That is: and circsigma t lambda) circsigma, t lambda) lambda i rt i i lambda i r, t i r, t i i CC.) CC.0) The above formulae may be rewritten in the form of recursions, more easily used in calculations: circsigma t lambda) rt lambda circsigma t CC.) and circsigma, t lambda) r, t r, t lambda circsigma, t CC.) An alternative notation used for the above is V lambda r t ), for circsigma t and COV lambda r, t, r, t ) for circsigma, t when we want to make explicit the dependence on the smoothing constant. One converts the variance to volatility by taking the annualized square root, the annualizing constant being determined by the data frequency as usual. Note that for the EWMA correlation the covariance is divided by the square root of the product of the two EWMA variance estimates, all with the same value of lambda. Similarly for the EWMA beta the covariance between the stock or portfolio) returns and the market returns is divided by the EWMA estimate for the market variance, both with the same value of lambda. That is: circ t, lambda COV lambdar, t, r, t ) CC.) Vlambda r, t )V lambda r, t ) and circbeta t, lambda COV lambdax t, Y t ) V lambda X t ) Interpretation of lambda CC.) There are two terms on the right hand side of CC.). The first term lambda) rt determines the intensity of reaction of volatility to market events: the smaller is lambda the more the volatility reacts to the market information in yesterday s return. The second term lambda circsigma t determines the persistence in volatility: Irrespective of what happens in the market, if volatility was high yesterday it will be still be high today. The closer that lambda is to, the more persistent is volatility following a market shock. Thus, a high lambda gives little reaction to actual market events but great persistence in volatility, and a low lambda gives highly reactive volatilities that quickly die away. An unfortunate restriction of exponentially weighted moving average models is that the reaction and persistence parameters are not independent: the strength of reaction to market events is determined by lambda, whilst the persistence of shocks is determinedby lambda. But this assumption is not empirically justified except perhaps in a few markets e. g. major U. S. dollar exchange rates). The effect of using a different value of lambda in EWMA volatility forecasts can be quite substantial. Figure CC. compares two EWMA volatility estimatesforecasts of the SampP 00 index, with lambda 0.0 and lambda 0. It is not 0 0 0 0 0 0 EWMA 0.0) Volatility EWMA 0.) Volatility May-00 Sep-00 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 Figure CC. Different lambdas EWMA Volatility Estimates for SP00 with 12 JWPR0-Fabozzi c-cc November, 00. Moving Average Models for Volatility and Correlation, and Covariance Matrices unusual for these two EWMA estimates to differ by as much as 0. So which is the best value to use for the smoothing constant How should we choose lambda This is not an easy question. By contrast, in generalized autoregressive conditional heteroskedascity GARCH) models there is no question of how we should estimate parameters, because maximum likelihood estimation is an optimal method that always gives consistent estimators.) Statistical methods may considered: For example, lambda could be chosen to minimize the root mean square error between the EWMA estimate of variance and the squared return. But, in practice, lambda is often chosen subjectively because the same value of lambda has to be used for all elements in a EWMA covariance matrix. As a rule of thumb, we might take values of lambda between about 0. volatility is highly reactive but has little persistence) and 0. volatility is very persistent but not highly reactive) 0 0 0 0 0 0 Properties of the Estimates A EWMA volatility estimate will react immediately following an unusually large return then the effect of this return on the EWMA volatility estimate gradually diminishes over time. The reaction of EWMA volatility estimates to market events therefore persists over time, and with a strength that is determined by the smoothing constant lambda. The larger the value of lambda, the more weight is placed on observations in the past and so the smoother the series becomes. Figure CC. compares the EWMA volatility of the MIB index with lambda 0. and the 0-day equally weighted volatility estimate. The difference between the two estimators is marked following an extreme market return. The EWMA estimate gives a higher volatility than the equally weighted estimate, but it returns to normal levels faster than the equally weighted estimated because it does not suffer from the ghost features discussed above. One of the disadvantages of using EWMA to estimate and forecast covariance matrices is that the same value of EWMA 0.) Volatility 0-day Volatility May-00 Sep-00 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 May-0 Sep-0 Jan-0 Figure CC. EWMA versus Equally Weighted Volatility lambda is used for all the variances and covariances in the matrix. For instance, in a large matrix covering several asset classes, the same lambda applies to all equity indices, foreign exchange rates, interest rates, andor commodities in the matrix. But why should all these risk factors have similar reaction and persistence to shocks This constraint is commonly applied merely because it guarantees that the matrix will be positive semidefinite. The EWMA Forecasting Model The exponentially weighted average variance estimate CC.), or in its equivalent form CC.) is just a methodology for calculating circsigma t. thatis, itgivesavarianceesti - mate at any point in time but there is no model as such, that explains the behaviour of the variance of returns, sigmat at each time t. In this sense, we have to distinguish EWMA from a GARCH model, which starts with a proper specification of the dynamics of sigmat and then proceeds to estimate the parameters of this model. Without a proper model, it is not clear how we should turn our current estimate of variance into a forecast of variance over some future horizon. One possibility is to augment CC.) by assuming it is the estimate associated with the model sigmat lambda) rt lambdasigma t r t I t N 0,sigmat ) CC.) An alternative is to assume a constant volatility, so the fact that our estimates are time varying is merely due to sampling error. In that case any EWMA variance forecast must be constant and equal to the current EWMA estimate. Similar remarks apply to the EWMA covariance, this time regarding EWMA as a simplistic version of bivariate normal GARCH. Similarly, the EWMA volatility or correlation) forecast for all risk horizons is simply set at the current EWMA estimate of volatility or correlation). The base horizon for the forecast is given by the frequency of the data daily returns will give the one-day covariance matrix forecast, weekly returns will give the one-week covariance matrix forecast, and so forth. Then, since the returns are independent and identically distributed, the square root of time rule applies. So we can convert a oneday forecast into an h-day covariance matrix forecast by multiplying each element of the one-day EWMA covariance matrix by h. Since the choice of lambda itself quite ad hoc, as discussed above, some users choose different values of lambda for forecasting over different horizons. For instance, as discussed later in this chapter, in the RiskMetrics TM methodolgy a relative low value of lambda is used for short-term forecasts and a higher value of lambda is used for long-term forecasts. However, this is purely an ad hoc rule. Standard Errors for EWMA Forecasts In the previous section, we justified the assumption that the underlying returns are normally and independently distributed with mean zero and variance sigma. That is, for 13 JWPR0-Fabozzi c-cc November, 00. PLEASE SUPPLY PART TITLE Now we can apply the variance operator to and calculate the variance of the EWMA variance estimator as: V circsigma t ) lambda) lambda ) V rt ) lambda lambda sigma CC.) For instance, as a percentage of the variance, the standard error of the EWMA variance estimator is about when lambda 0. 0. when lambda 0. and. when lambda 0. A single point forecast of volatility can be very misleading. A forecast is always a distribution. It represents our uncertainty over the quantity that is being forecast. The standard error of a volatility forecast is useful because it can be translated into a standard error for a VaR estimate, for instance, or an option price. In any VaR model one should be aware of the uncertainty that is introduced by possible errors in the forecast of the covariance matrix. Similarly, in any mark-to-model value of an option, one should be aware of the uncertainty that is introduced by possible errors in the volatility forecast. Au: Pls. 0 complete this sentence all t E r t ) 0 and V rt ) E r t ) sigma In this section, we use this assumption to obtain standard errors for EWMA forecasts. From the above, and further from the normality assumption, we have: V rt ) ) ) E r t E r t sigma sigma sigma The RiskMetrics TM Methodology Three very large covariance matrices, each based on a different moving average methodology, are available from These matrices cover all types of assets including government bonds, money markets, swaps, foreign exchange, and equity indices for currencies and commodities. Subscribers have access to all of these matrices updated on a daily basis and end-of-year matrices are also available to subscribers wishing to use them in scenario analysis. After a few days, the datasets are also made available free for educational use. The RiskMetrics TM group is the market leader in market and credit risk data and modeling for banks, corporates asset managers, and financial intermediaries. It is highly recommended that readers visit the web site where they will find a surprising large amount of information in the form of free publications and data. See the References at the end of this chapter for details. The three covariance matrices provided by the RiskMetrics group are each based on a history of daily returns in all the asset classes mentioned above. They are. Regulatory matrix: This takes it name from the unfortunate) requirement that banks must use at least days of historical data for VaR estimation. Hence this metric is an equally weighted average matrix with n . The volatilities and correlations constructed from this matrix represent forecasts of average volatility or correlation) over the next days. 0 0 0 0 0 Jan - Jan - Daily EWMA Volatility Monthly EWMA Volatility Regulatory Volatility Jan - Jan - Jan-00 Jan-0 Jan-0 Jan-0 Jan-0 Jan-0 Jan-0 Figure CC. Comparison of the RiskMetrics Forecasts for FTSE00 Volatility. Daily matrix: This is an EWMA covariance matrix with lambda 0. for all elements. It is not dissimilar to an equally weighted average with n , except that it does not suffer from the ghost features caused by very extreme market events. The volatilities and correlations constructed from this matrix represent forecasts of average volatility or correlation) over the next day. Monthly matrix: This is an EWMA covariance matrix with lambda 0. for all elements and then multiplied by i. e. using the square root of time rule and assuming days per month). The volatilities and correlations constructed from this matrix represent forecasts of average volatility or correlation) over the next days. The main difference between the three different methods is evidenced following major market movements: The regulatory forecast will produce a ghost effect of this event, and does not react as much as the daily or monthly forecasts. The most reactive is the daily forecast, but it also has less persistence than the monthly forecast. Figure CC. compares the estimates for the FTSE 00 volatility based on each of the three RiskMetrics methodologies and using daily data from January. to June, 00. As mentioned earlier in this chapter, these estimates are assumed to be the forecasts over, respectively, one day, one month, and one year. In volatile times, the daily and monthly estimates lie well above the regulatoryforecastandtheconverseistrueinmoretranquil periods. For instance, during most of 00, the regulatory estimate of average volatility over the next year was about 0 higher than both of the shorter-term estimates. However, it was falling dramatically during this period, and indeed the regulatory forecast of more than 0 volatility on average between June 00 and June 00 was entirely wrong. However, at the end of the period, in June 00, the daily forecasts were above 0, and the monthly forecasts were only just below this. However, the regulatory forecast over the next year was only slightly more than 0. During periods when the markets have been tranquil for some time, for instance during the whole of 00, the 14 JWPR0-Fabozzi c-cc November, 00. Moving Average Models for Volatility and Correlation, and Covariance Matrices 0 three forecasts tend to agree more. But during and directly after a volatile period there are large differences between the regulatory forecasts and the two EWMA forecasts, and these differences are very difficult to justify. Neither the equally weighted average nor the EWMA methodology is based on a proper forecasting model. One simply assumes the current estimate is the volatility forecast. But the current estimate is a backward-looking measure based on recent historical data. So both of these moving average models make the assumption that the behavior of future volatility is the same as its past behavior and this is a very simplistic view SUMMARY The equally weighted moving average, or historical approach to estimatingforecasting volatilities and correlations, was the only statistical method used by practitioners until the mid-0s. The historical method may provide a useful indication of the possible range for a long-term average, such as the average volatility or correlation over the next several years. However, its application to shortterm forecasting is very limited, indeed the approach suffers from at least four drawbacks. First, the forecast of volatilitycorrelation over all future horizons is simply taken to be the current estimate of volatility, because the underlying assumption in the model is that returns are independent and identically distributed. Second, the only choice facing the user is on the data points to use in the data window. The forecasts produced depend crucially on this decision, yet there is no statistical procedure to choose the size of data window it is a purely subjective decision. Third, following an extreme market move the forecasts of volatility and correlation will exhibit a so-called ghost feature of that extreme move, which will severely bias the volatility and correlation forecasts upward. Finally, the extent of this bias depends very much on the size of the data window. The bias issue was addressed by J. P. Morgan bank, which launched the RiskMetrics TM data and software suite in the mid-0s. The bank s choice of methodology helped to popularize the use of exponentially weighted moving averages EWMA) by financial analysts. The EWMA approach provides useful forecasts for volatility and correlation over the very short term, such as over the new day or week. However, its use for longer-term 0 forecasting is limited, and this methodology also has two major problems. First, the forecast of volatilitycorrelation over all future horizons is simply taken to be the current estimate of volatility, because the underlying assumption in the model is that returns are independent and identically distributed. Second, the only choice facing the user is aboutthe value ofthe smoothing constant, lambda. The forecasts produced depend crucially on this decision, yet there is no statistical procedure to choose lambda. Often an ad hoc choice is made for example, the same lambda is taken for all series and a higher lambda is chosen for a longer-term forecast. Moving average models assume returns are independent and identically distributed, and the further assumption that they are normally distributed allows one to derive standard errors and confidence intervals for moving average forecasts. But empirical observations suggest that returns to financial assets are hardly ever independent and identically, let alone normally distributed. For these reasons more and more practitioners are basing their forecasts on generalized autoregressive conditional heteroskedasticity GARCH) models. There is no doubt that such models produce superior volatility forecasts. It is only in GARCH models that the term structure volatility forecasts converge to the long run average volatility the other models produce constant volatility term structures. Moreover, the value of the EWMA smoothing constant is chosen subjectively and the same smoothing constant must be used for all the returns, otherwise the covariance matrix need not be positive semi-definite. But GARCH parameters are estimated optimally and GARCH covariance matrices truly reflect the time-varying volatilities and correlations of the multivariate returns distributions. REFERENCES Alexander, C. 00). Market Risk Analysis. Chichester, UK: John Wiley amp Sons. Freund, J. E. ). Mathematical Statistics. Englewood Cliffs: Pearson U. S. Imports amp PHIPEs. RiskMetrics ). RiskMetrics Technical Document, RiskMetrics ). Risk Management A Practical Guide, RiskMetrics 00). Return to RiskMetrics: The Evolution of astandardriskmetricsrrovv. html. Volume 1 by Frank J. Fabozzi Moving Average Models for Volatility and Correlation, and Covariance Matrices CAROL ALEXANDER, PhD Professor of Finance, University of Sussex Abstract: The volatilities and correlations of the returns on a set of assets, risk factors, or interest rates are summarized in a covariance matrix. This matrix lies at the heart of risk and return analysis. It contains all the information necessary to estimate the volatility of a portfolio, to simulate correlated values for its risk factors, to diversify investments, and to obtain efficient portfolios that have the optimal trade-off between risk and return. Both risk managers and asset managers require covariance matrices that may include very many assets or risk factors. For instance, in a global risk management system of a large international bank all the major yield curves, equity indexes, foreign exchange rates, and commodity prices will be encompassed in one very large dimensional covariance matrix. Variances and covariances are parameters of the joint distribution of asset (or risk factor) returns. It is important to understand that they are unobservable. They can only be estimated or forecast within the context of a model. Continuous-time models, used for option pricing, are often based on stochastic processes for the variance and covariance. Discrete-time models, used for measuring portfolio risk, are based on time series models for variance and covariance. In each case, we can only ever estimate or forecast variance and covariance. With Safari, you learn the way you learn best. Get unlimited access to videos, live online training, learning paths, books, interactive tutorials, and more. No credit card required

Comments