Vai ai contenuti. | Spostati sulla navigazione | Spostati sulla ricerca | Vai al menu | Contatti | Accessibilità

| Crea un account

Velo, Gabriel G. (2012) Realized Volatility: Macroeconomic determinants, Forecasting and Option trading. [Tesi di dottorato]

Full text disponibile come:

[img]
Anteprima
Documento PDF - Versione sottomessa
1425Kb

Abstract (inglese)

The estimation and modeling of financial volatility asset has been one of the most active research areas because of its crucial importance in asset pricing, risk management and portfolio allocation. However, the main problem is that volatility is not directly observable. Common approaches to deal with the latency of the volatility are the parametric (Generalized) Autoregressive Conditional Heteroskedasticity ((G)ARCH) family of models introduced by Engle (1982) and Bollerslev (1986) or the stochastic volatility (SV) models (see, for example, Taylor, 1986).
With the growing availability of high frequency price data and based on the theory of quadratic variation, the estimation of volatility has moved from latent volatility model to non-parametric realized measures. Andersen et al. (2001) and Barndorff-Nielsen and Shephard (2002) introduced the Realized Variance as the sum of squared returns over non-overlapping intervals within a sampling period. In theory, the realized variance is an unbiased and highly efficient estimator that converges to the integrated variance when the length of the intra-day intervals goes to zero. In addition, Christensen and Podolskij (2007) and Martens and van Dijk (2007) proposed the Realized Range-based Variance. This estimator is defined as the sum of the squared ranges (i.e. the difference between the maximum and minimum prices observed during a period) over non-overlapping intervals. It is a consistent and highly efficient estimator of the integrated volatility and it is about five times more efficient than realized variance. Then, volatility becomes observable and it is possible to model it in order to obtain forecasts that are needed in many financial applications. In practice, the implementation of realized estimation measures in the reality of high frequency data faces various difficulties. These estimators are based on the assumptions that the prices follow a continuous sample path and they are sensitive to microstructure noise, which can cause severe problems for the estimator’s consistency.
This PhD thesis aims at modeling and forecasting volatility, and contributes to the financial econometrics literature in three different directions. The first chapter, a joint work with Professor Massimiliano Caporin, considers the modeling and forecasting of volatility based on the realized range estimator and explores the performance of alternative specifications that take into account the distinct behavior and stylized facts of financial volatility time series. The second chapter focuses on the economic determinants of financial volatility and analyzes the predictive ability that macroeconomic and financial variables have when forecasting volatility. Finally, the third chapter deals with the evaluation of alternative estimators and forecasting models of volatility from an economic point of view.
More in detail, in the first chapter , we concentrate on the estimation of volatility through the realized range-based for 16 stocks traded at the New York Stock Exchange (NYSE) and we consider the impact of the microstructure noise in high frequency data and correct our estimations following the procedure of Martens and van Dijk (2007). In addition, we model the volatility series accounting for the asymmetric effect on volatility caused by lagged returns and the long-range dependence, the volatility clustering in the volatility and non-Gaussianity of the innovations of the model. In particular, we specify an Heterogenuos Autoregressive (HAR) model introduced by Corsi (2009), leverage effects with respect to the return and the volatility, GARCH and GJR-GARCH variance and the Normal Inverse Gaussian (NIG) distribution. The empirical analysis of the forecast performance in 16 stocks suggests that the introduction of asymmetric effects with respect to the returns and the volatility in the HAR model results in significant improvement in the point forecasting accuracy.
In the second chapter, we investigate the role that macroeconomic and financial variables play when modeling and forecasting daily stocks volatility. We depart from the estimated series in Chapter 1 and we extend the model including economic and financial variables that capture the present and the future state of the economy. We perform an in-sample and out-of-sample empirical analysis in 16 series of stock volatility. We find that macroeconomic and financial variables, in particular proxies for market risk expectation and credit risk, are significantly correlated with the first principal component of the volatility series and they have a highly in-sample explanatory power. Then, we consider an out-of-sample forecasting exercise to analyze the improvement that results from the introduction of the macroeconomic variables that better perform in our in-sample analysis. Variables such as the VIX and the credit default swap index for the US bank sector produce significant improvements in the forecasting accuracy. Last, exploring the impact during the 2008-2009 financial crisis, we observe a higher correlation between the credit default swap index and the volatility reflecting an increase in the perceived credit risk, while there is no significant improvement in the out-of-sample predictions.
In the last chapter, we examine and compare the performance of alternative realized estimators of volatility and of different time series forecasting models from an economic point of view. We consider an investor that speculates on the future level of the volatility and invests in a buy-and-hold option strategy depending on his expected level of volatility, that is obtained from different estimators and forecasting models. We implement the trading strategy with weekly S&P 500 Index options and compute volatility from a high frequency series for S&P 500 Futures. The volatility estimators are based on the realized volatility and the realized range and they are robust to microstructure noise and jumps while out-of-sample forecast are obtained with Autoregressive fractional integrated moving average (ARFIMA) models. Additionally, to account for the possibility of confusing long memory with process with short memory and structural change in levels we take into consideration the ARFIMA model with random level shift component recently introduced by Varneskov and Perron (2011) and Grassi and Santucci de Magistris (2011). The main results show that realized range based estimator corrected for the presence of microstructure noise and discontinuities in the price process produces the highest returns. Moreover, the choice of the realized estimator for the volatility seems to be more important than the forecasting models. Finally, positive annualized profits of up to more than 60% are obtained for the trading period before the financial 2008-2009 crisis.

Abstract (italiano)

La stima e la modellazione della volatilità finanziaria è stata una delle aree di ricerca più attive degli ultimi 20 anni vista la sua cruciale importanza nell’asset pricing, nel risk management e nell’allocazione del portafoglio. Tuttavia, il problema principale è che la volatilità non è direttamente osservabile. Gli approcci più comuni per affrontare la latenza della volatilità sono i modelli parametrici (Generalized) Autoregressive Conditional Heteroskedasticity ((G)ARCH) introdotti da Engle (1982) e Bollerslev (1986) e i modelli di volatilità stochastica (SV) (vedere per esempio, Taylor (1986)).
Con la crescente disponibilità di dati ad alta frequenza e utilizzando gli sviluppi teorici legati alla teoria della variazione quadratica, la stima della volatilità si è evoluta dai modelli latenti alle misure realizzate non parametriche. Andersen et al. (2001) e Barndorff-Nielsen e Shephard (2002) hanno introdotto la varianza realizzata che è definita come la somma dei rendimenti al quadrato all’interno di un intervallo di tempo. In teoria, la varianza realizzata è uno stimatore non distorto e altamente efficiente che converge alla varianza integrata quando la lunghezza dell’intervallo di campionamento intragiornaliero tende a zero. Inoltre, Christensen e Podolskij (2007) e Martens e van Dijk (2007) hanno proposto una diversa misura della varianza realizzata basata sul range. Lo stimatore è definito come la somma dei range al quadrato (dove il range è la differenza tra il massimo e prezzo minimo osservato nel corso di un determinato intervallo). Si tratta di uno stimatore consistente e altamente efficiente della volatilità integrata ed è circa cinque volte più efficiente della varianza realizzata. In seguito a quest’operazione, la volatilità diventa osservabile ed è possibile modellizzarla in modo da ottenere previsioni che sono necessarie in molte applicazioni finanziarie. L’implementazione degli stimatori realizzati utilizzando dati ad alta frequenza incontra tuttavia diverse difficoltà. Infatti, tali stimatori sono basati sulle ipotesi secondo le quali i prezzi seguono un processo continuo e sono inoltre sensibili agli effetti microstrutturali, elemento che possono provocare gravi problemi riguardo la consistenza dello stimatore.
Questa tesi di dottorato di ricerca si propone di modellizzare e prevedere la volatilità, e contribuisce alla letteratura dell’econometria per la finanza in tre direzioni diverse. Il primo capitolo, un lavoro co-autorato con il professore Massimiliano Caporin, considera la modellizzazione e la previsioni della volatilità sulla base dello stimatore realizzato basato sul range ed esplora le performance di specificazioni alternative che tengano conto del comportamento specifico e dei fatti stilizzati delle serie storiche della volatilità finanziaria. Il secondo capitolo si concentra sulle determinanti economiche della volatilità e analizza la capacità predittiva delle variabili macroeconomiche e finanziarie. Infine, il terzo capitolo studia la valutazione di stimatori alternativi della volatilità e di un set di modelli di previsione della volatilità da un punto di vista economico.
Più in dettaglio, il primo capitolo si focalizza nella stima della volatilità realizzata attraverso lo stimatore basato sul range in 16 azioni scambiate al New York Stock Exchange (NYSE), si considera l'effetto microstrutturale dei dati ad alta frequenza e si correggono le stime seguendo la procedura di Martens e van Dijk (2007). Inoltre, il modello per le serie di volatilità realizzata prende in considerazione l'effetto asimmetrico sulla volatilità causata dai rendimenti ritardati e la dipendenza di lungo termine, la volatility clustering della volatilità e la non Gaussianità delle innovazioni del modello. In particolare, si specficifa un modello Autoregressive Heterogenuos (HAR) introdotto da Corsi (2009), effetti leverage riguardo ai rendimenti e presenza di innovazioni caratterizzate da varianze GARCH o GJR-GARCH e con una distribuzione Normal Inverse Gaussian (NIG). L'analisi empirica dell’abilità predittiva nelle 16 azioni considerate suggerisce che l'introduzione degli effetti asimmetrici rispetto ai rendimenti e la volatilità nel modello HAR portano ad un significativo miglioramento della performance delle previsioni.
Nel secondo capitolo, si esamina il ruolo che le variabili macroeconomiche e finanziarie hanno nella modellazione e nella previsione della volatilità giornaliera. Il punto di partenza sono le serie stimate nel primo capitolo e si estende il modello includendo variabili economiche e finanziarie che contengono informazioni relative allo stato presente e futuro dell'economia. E’stato eseguita un’analisi empirica dentro e fuori campione in 16 serie di volatilità di titoli azionari. I risultati suggeriscono che le variabili macroeconomiche e finanziarie, in particolare le proxy per le aspettative di rischi di mercato e rischi di credito, sono significativamente correlate con il primo componente principale delle serie di volatilità e hanno un potere altamente esplicativo. Successivamente, si considera un esercizio di previsione fuori campione per analizzare il miglioramento che deriva dall'introduzione delle variabili macroeconomiche che hanno avuto più potere esplicativo nel’analisi nel campione. Variabili come il VIX e credit default swap per il settore bancario statunitense producono miglioramenti significativi nella accuratezza delle previsioni. Infine, esplorando l'impatto durante la crisi finanziaria 2008-2009, si osserva una maggiore correlazione tra i credit default swap e la volatilità che riflette un aumento del rischio di credito percepito, mentre non si ottiene alcun miglioramento significativo nella previsioni fuori campione .
Nell'ultimo capitolo, si esamina e confronta la prestazione di stimatori alternativi della volatilità realizzata e di diversi modelli di previsione di serie storiche dal punto di vista economico. Nello specifico, si considera un investitore che specula sul futuro livello della volatilità e investe in un strategia buy-and-hold su opzione che dipende dal livello atteso per la volatilità, e di conseguenza risente delle differenze tra i diversi stimatori e modelli di previsione utilizzati. La strategia di trading viene implementata settimanalmente su opzioni dove il sottostante è S&P 500 Index e la volatilità viene stimata da una serie ad alta frequenza relativa allo S&P 500 Futures. Gli stimatori considerati sono la volatilità realizzata e la volatilità realizzata basata sul range in entrambi i casi nelle versioni robuste all’effetto microstrutturale ed alla presenza di salti. Le previsioni si ottengono con modelli Autoregressive fractional integrated moving average (ARFIMA). Inoltre, per tenere conto della possibilità di confondere memoria lunga con processi con memoria corta e cambiamenti strutturali nei livelli, si considera il modello ARFIMA con break strutturali, recentemente introdotti da Varneskov e Perron (2011) e Grassi e Santucci de Magistris (2011). I principali risultati mostrano che le stime ottenute con il metodo basato sul range e corretti per la presenza di effetti microstrutturali e discontinuità nel processo del prezzo producono i rendimenti più elevati. Inoltre, la scelta dello stimatore realizzato per la volatilità sembra essere più importante rispetto ai modelli di previsione. Infine, si osserva come sia possibile ottenere profitti positivi annualizzati fino ad oltre il 60% nel periodo di trading considerato e che parte da Ottobre 2005 fino ad arrivare alla crisi finanziaria del 2008-2009.

Statistiche Download - Aggiungi a RefWorks
Tipo di EPrint:Tesi di dottorato
Relatore:Caporin, Massimiliano
Dottorato (corsi e scuole):Ciclo 23 > Scuole per il 23simo ciclo > ECONOMIA E MANAGEMENT
Data di deposito della tesi:30 Gennaio 2012
Anno di Pubblicazione:31 Gennaio 2012
Parole chiave (italiano / inglese):Realized Range Volatility, Realized Volatility, Long-memory, Volatility forecasting, Macroeconomic variables.
Settori scientifico-disciplinari MIUR:Area 13 - Scienze economiche e statistiche > SECS-P/05 Econometria
Struttura di riferimento:Dipartimenti > Dipartimento di Scienze Economiche e Aziendali "Marco Fanno"
Codice ID:4851
Depositato il:29 Ott 2012 10:24
Simple Metadata
Full Metadata
EndNote Format

Download statistics

Solo per lo Staff dell Archivio: Modifica questo record