Este documento presenta un análisis estadístico del índice bursátil FTSE 100 utilizando el modelo de Black-Scholes y la distribución normal inversa gaussiana. Se analizan las premisas del modelo de Black-Scholes, como la distribución normal de los retornos, usando datos reales del FTSE 100. Los resultados sugieren que la distribución normal inversa gaussiana modeliza mejor las variaciones del índice. Adicionalmente, se evalúa la autocorrelación de los retornos para verificar la independencia entre intervalos de tiempo asum
Análisis en profundidad de la revista Líbero, una apuesta por la armonización entre el fútbol y la cultura. Este trabajo tiene por objetivo realizar una aproximación al periodismo deportivo de registro culto reflejado en la revista, y ensalzar así los valores culturales que en ella se recogen. En un panorama crítico con la labor de esta especialización periodística, Líbero supone una forma distinta de abordar este fenómeno de masas.
Análisis en profundidad de la revista Líbero, una apuesta por la armonización entre el fútbol y la cultura. Este trabajo tiene por objetivo realizar una aproximación al periodismo deportivo de registro culto reflejado en la revista, y ensalzar así los valores culturales que en ella se recogen. En un panorama crítico con la labor de esta especialización periodística, Líbero supone una forma distinta de abordar este fenómeno de masas.
Ejemplos del marco teorico, antecedentes y marco legal de la investigacionNinoska Rodriguez
Aprenda cómo hacer el marco teórico de un trabajo de investigación, a través de ejemplos sencillos y prácticos. Ideal para la elaboración de su tesis o trabajo de investigación.
Es la continuación de los capítulos de educación financiera para estudiantes de educación superior a para auto autodidactas que están partiendo con su empresa
1. FACULTAD DE CIENCIAS
ECONÓMICAS Y EMPRESARIALES
GRADO EN ECONOMÍA
Un análisis estadístico del FTSE 100
Trabajo Fin de Grado presentado por Francisco López Caballero, siendo el tutor del
mismo el profesor José Manuel Gavilán Ruiz
Vº. Bº. del Tutor Alumno/a:
D. José Manuel Gavilán Ruiz D. Francisco López Caballero
Sevilla. Junio de 2014
2.
3. GRADO EN ECONOMÍA
FACULTAD DE CIENCIAS
ECONÓMICAS Y EMPRESARIALES
TRABAJO FIN DE GRADO
CURSO ACADÉMICO [2013-2014]
TÍTULO:
UN ANÁLISIS ESTADÍSTICO DEL FTSE 100
AUTOR:
FRANCISCO LÓPEZ CABALLERO
TUTOR:
D. JOSÉ MANUEL GAVILÁN RUIZ
DEPARTAMENTO:
DEPARTAMENTO DE ECONOMÍA APLICADA I
ÁREA DE CONOCIMIENTO:
ESTADÍSTICA
RESUMEN:
A lo largo de este trabajo, se analizan algunas de las premisas básicas que
establece el modelo de Black & Scholes para la evolución temporal de los precios
de un activo financiero, principalmente se analiza aquella premisa que establece
que las variaciones de los activos financieros entre intervalos de tiempo se ajustan
a una distribución normal y son independientes entre intervalos de tiempo que no se
solapan. Para ello se usan datos reales de cierre del índice FTSE 100, y como
herramienta de análisis, el software estadístico R.
PALABRAS CLAVE:
Modelo de Black & Scholes; distribución normal; FTSE 100; software R.
4.
5. TFG-ECO. Un análisis estadístico del FTSE 100
-I-
ÍNDICE
1. INTRODUCCIÓN.....................................................................................................................................................................................................................1-2
2. EL FTSE 100....................................................................................................................................................................................................................................... 2
2.1. COMPOSICIÓN Y PONDERACIÓN POR SECTORES...................................................................... 3
3. EL MODELO DE B&S............................................................................................................................................................................................................. 4
3.1. EL MOVIMIENTO BROWNIANO......................................................................................................................................... 5
3.2. HISTORIA, ORIGEN Y AUTORES................................................................................................................................... 6
3.3. MARCO TEÓRICO.................................................................................................................................................................................. 6
3.4. SIMULACIÓN DEL MOVIMIENTO BROWNIANO....................................................................................... 7
4. DATOS EMPÍRICOS DEL FTSE 100..................................................................................................................................................... 8-10
5. AGREGACIÓN GAUSSIANA................................................................................................................................................................................... 10
5.1. TEST DE NORMALIDAD............................................................................................................................................................ 11
5.1.1. Contraste de Kolmogorov-Smirnov............................................................................................................... 11
5.2. COMPARACIÓN GRÁFICA DE DENSIDADES................................................................................................... 12
5.2.1. Colas pesadas y medidas de forma............................................................................................................. 12
5.3. VALUE AT RISK................................................................................................................................................................................................ 13
5.4. DENSIDADES EN ESCALA LOGARÍTMICA............................................................................................................ 13
5.5. TEST JARQUE-BERA: MEDIDAS DE FORMA.......................................................................................... 13-14
5.5.1. Asimetría.................................................................................................................................................................................... 14
5.5.2. Curtosis o apuntamiento............................................................................................................................ 14-15
5.5.3. Test Jarque-Bera........................................................................................................................................................... 15
6. LA DISTRIBUCIÓN NORMAL INVERSA GAUSSIANA............................................................................................ 15-17
6.1. ESTIMACIÓN DE LOS PARÁMETROS DE LA NIG...................................................................................... 18
7. UNA ALTERNATIVA AL MODELO DE B&S....................................................................................................................................... 19
8. AUTOCORRELACIONES................................................................................................................................................................................... 19-21
9. CONCLUSIONES..................................................................................................................................................................................................................... 22
10. BIBLIOGRAFÍA......................................................................................................................................................................................................................... 23
11. ANEXO....................................................................................................................................................................................................................................... 24-27
6.
7. TFG-ECO. Un análisis estadístico del FTSE 100
-1-
1. INTRODUCCIÓN
El relativamente reciente desarrollo de los mercados financieros, unido al afán del ser
humano por predecir el futuro, ha llevado asociado el desarrollo de modelos de
predicción, basados en técnicas estadísticas y actuariales que tratan de anticipar los
acontecimientos futuros al momento presente con el fin de anticipar cambios
inesperados y posicionarse estratégicamente de la forma más óptima posible
minimizando por ejemplo los efectos de una crisis financiera. Conociendo a través de
estos modelos los posibles riesgos asociados a cualquier producto financiero,
podríamos predecir un gran cambio en el mercado, lo que nos permitiría estar
“cubiertos” y reducir así los efectos que las crisis financieras provocan en la economía
real.
En el ámbito de este trabajo estudiaremos un modelo introducido en 1973,
conocido como el modelo Black & Scholes para la valoración de opciones financieras,
el cual en aplicaciones posteriores se extendió a otros productos financieros, por su
utilidad tanto para especular con las fluctuaciones precio de los activos, como para
llevar a cabo estrategias de cobertura financiera.
En este trabajo se analizan todas las premisas básicas de este modelo, y con el
uso de algunas técnicas cuantitativas se mide con qué grado de exactitud este modelo
es capaz de modelizar las variaciones de un índice bursátil real, el FTSE100 o
Financial Times Stock Exchange, de la bolsa de valores de Londres. Además, se
compara este con otro modelo, la NIG (Normal inversa gaussiana) el cual, modeliza
mejor las variaciones del mencionado índice.
Para ello, se utiliza como herramienta el software estadístico-R se estiman todos
los parámetros de ambos modelos utilizando las series de datos de los logaritmos de
los retornos (En adelante, logreturns) de cierre del mencionado índice. Además se
simula el movimiento browniano estándar, premisa básica del Black Scholes, y se
representan gráficamente las densidades de la muestra, densidad de la normal y la
normal inversa gaussiana con los parámetros estimados, llevamos a cabo un test de
normalidad, se analiza el valor en riesgo y las autocorrelaciones.
La organización del trabajo, se ajusta de manera lógica a un estudio de estas
características, es decir, una pequeña introducción ocupa la sección 1. La sección 2
contiene un análisis característico, estructural e histórico de nuestro índice. En la
sección 3, explicamos el modelo Black & Scholes estudiando su principal premisa
matemática, el movimiento browniano definiendo su marco histórico y teórico,
realizando finalmente varias simulaciones del mismo. En la sección 4, se realiza un
test de normalidad, y además de una comparativa gráfica de las curvas de densidad
teóricas, y las observadas empíricamente con objeto de medir el grado de ajuste, y de
corroborar si existe el fenómeno de la agregación gaussiana. En la sección 5
realizamos un análisis de asimetría y curtosis, consonante con el objetivo de descartar
la normalidad como proceso para modelizar las variaciones de los precios de los
activos en los mercados financieros.
En base al análisis anterior, en las secciones 6 y 7 proponemos como alternativa la
distribución normal inversa gaussiana, que al tener parámetros de asimetría y curtosis,
es más flexible para modelar la distribución de las variaciones de los logreturns del
FTSE100.
En la sección 8, se utiliza el análisis de autocorrelaciones de los logreturns del
FTSE100, para ver si lo observado es compatible con la independencia entre
variaciones que caracteriza implícitamente al modelo de Black & Scholes. Por último,
8. López Caballero Francisco
-2-
en la sección 9 se presentan una serie de conclusiones en base al análisis realizado y
se añade en un apéndice el código utilizado en el software que nos ha servido tanto
para la obtención de datos, como para la realización de su análisis estadístico.
2. El FTSE100
FTSE 100 (Financial Times Stock Exchange) o, de manera informal, "Footsie", es
como se denomina al índice agregado que engloba las acciones de las 100 empresas
con mayor capitalización del Reino Unido (FTSE.com) constituyendo el índice
principal o de referencia del mercado de valores británico así como S&P 500 lo es en
EEUU, el DAX 100 en Alemania o el IBEX 35 en España.
Éste da cuenta de la capitalización flotante ponderada de los 100 activos británicos
más líquidos y con mayor capitalización, cotizados en la Bolsa de Londres. La fórmula
que determina su composición es una media aritmética ponderada a la que se añade
un factor de capitalización flotante o free-float que determina el porcentaje de acciones
que realmente se están negociando en el mercado bursátil.
Además de ser el índice más representativo de la economía británica así como de
su salud financiera y económica, la importante posición del mercado de valores
británico lo convierte en uno de los índices más utilizados y seguidos por los agentes
del mercado, por ejemplo como un indicador de la prosperidad de los negocios para
las empresas reguladas por el Derecho de sociedades del Reino Unido. Para ello,
podemos constatar que las sociedades que en él están representadas corresponden a
más del 80% de la capitalización bursátil total de la Bolsa de Londres.
El índice se mantiene por el Grupo FTSE, una compañía líder global en indexación
perteneciente al London Stock Exchange Group. Este índice se calcula en tiempo real
y se publica cada 15 segundos, es decir, cotiza en el Mercado continuo entre las horas
de apertura y de cierre del mercado 8:00 A.M y 16:30 P.M respectivamente. Los
valores de cierre se toman a las 16:35. (FTSE.com)
Es importante tener en cuenta que la composición de este índice bursátil se revisa
cada trimestre. La última revisión disponible es de Marzo de 2014. Cuando una
sociedad cotizada sale de este índice, generalmente es reemplazada por una sociedad
cotizada en el FTSE 250, el cual muestra la misma información pero para los 250
valores más líquidos y con mayor capitalización. A veces sucede el hecho de que el
número de títulos cotizados es superior a 100, en particular, cuando las sociedades
emiten varios títulos diferentes (Royal Dutch Shell).
En lo que respecta al análisis histórico de las cotizaciones del FTSE 100 podemos
obtener diversas indicaciones en cuanto la forma en que reacciona frente a distintas
situaciones económicas y a las crisis. Comenzó su andadura el 3 de Enero de 1984
con una cotización de 1000 puntos de base, alcanzando en el año 1999 su más alto
umbral histórico en 6950 puntos. A continuación, descendió terminando a 6730 puntos
básicos en 2007.Este índice, sufrió durante la crisis las sub-primes y descendió hacia
los 5495 puntos. La posterior crisis económica llevará este índice cerca de los niveles
históricos más bajos registrados unos 3500 puntos aproximadamente en el año 2009
seguidas de una serie de reactivaciones hasta el nivel de los 5500 puntos en 2010.
Desde el año 2010, el FTSE 100 tiende más bien a evolucionar al alza. En efecto, se
pudo constatar una fuerte tendencia alcista en julio de 2010 que permitió superar el
umbral de 6000 puntos. En 2011, este índice se estabilizó en 5800 puntos
aproximadamente. Más recientemente, superó la barrera de los 6000 puntos a
principios de 2013 para avanzar en dientes de sierra hasta los 6400 puntos
aproximadamente en el mes de Marzo de 2014.
9. TFG-ECO. Un análisis estadístico del FTSE 100
-3-
2.1. Composición del FTSE 100 y ponderaciones por sectores económicos:
En la tabla 1, se muestran, los constituyentes del FTSE 100, así como su ponderación
en el índice y el sector productivo al que pertenecen. Los datos se han extraido de la
página web del grupo FTSE y se corresponden al mes de Mayo de 2014:
Constituent name Index
Weight (%)
ICB
Supersector
Description
Constituent
name
Index Weight
(%)
ICB
Supersector
Description
BG Group 2,30 Oil & Gas Kingfisher 0,60 Retail
BP 5,35 Oil & Gas Marks & Spencer
Group
0,44 Retail
Petrofac 0,22 Oil & Gas Morrison (Wm)
Supermarkets
0,28 Retail
Royal Dutch Shell A 5,11 Oil & Gas Next 0,59 Retail
Royal Dutch Shell B 3,46 Oil & Gas Sainsbury (J) 0,27 Retail
Tullow Oil 0,41 Oil & Gas Sports Direct
International
0,11 Retail
Johnson Matthey 0,40 Chemicals Tesco 1,43 Retail
Anglo American 1,20 Basic Resources British Sky
Broadcasting Group
0,53 Media
Antofagasta 0,18 Basic Resources ITV 0,43 Media
BHP Billiton 2,35 Basic Resources Pearson 0,52 Media
Fresnillo 0,09 Basic Resources Reed Elsevier 0,65 Media
Glencore Xstrata 1,79 Basic Resources WPP 1,01 Media
Mondi 0,23 Basic Resources Carnival 0,25 Travel & Leisure
Randgold Resources 0,25 Basic Resources Compass Group 0,99 Travel & Leisure
Rio Tinto 2,51 Basic Resources Easyjet 0,26 Travel & Leisure
CRH 0,73 Construction &
Materials
InterContinental
Hotels Group
0,30 Travel & Leisure
Aggreko 0,23 Industrial Goods
& Services
International
Consolidated Airlines
Group
0,51 Travel & Leisure
Ashtead Group 0,29 Industrial Goods
& Services
TUI Travel 0,13 Travel & Leisure
Babcock International Group 0,29 Industrial Goods
& Services
Whitbread 0,45 Travel & Leisure
BAE Systems 0,80 Industrial Goods
& Services
William Hill 0,18 Travel & Leisure
Bunzl 0,32 Industrial Goods
& Services
BT Group 1,80 Telecommunicati
ons
Capita 0,44 Industrial Goods
& Services
Vodafone Group 3,53 Telecommunicati
ons
Experian 0,66 Industrial Goods
& Services
Centrica 1,01 Utilities
G4S 0,23 Industrial Goods
& Services
National Grid 1,85 Utilities
IMI 0,24 Industrial Goods
& Services
Severn Trent 0,26 Utilities
Intertek Group 0,30 Industrial Goods
& Services
SSE 0,85 Utilities
Meggitt 0,23 Industrial Goods
& Services
United Utilities
Group
0,32 Utilities
Melrose Industries 0,19 Industrial Goods
& Services
Barclays 2,26 Banks
Rexam 0,23 Industrial Goods
& Services
HSBC Hldgs 6,90 Banks
Rolls-Royce Holdings 1,21 Industrial Goods
& Services
Lloyds Banking
Group
2,18 Banks
Royal Mail 0,21 Industrial Goods
& Services
Royal Bank Of
Scotland Group
0,39 Banks
Smiths Group 0,30 Industrial Goods
& Services
Standard
Chartered
1,50 Banks
Travis Perkins 0,28 Industrial Goods
& Services
Admiral Group 0,17 Insurance
Weir Group 0,33 Industrial Goods
& Services
Aviva 0,85 Insurance
Wolseley 0,54 Industrial Goods
& Services
Legal & General
Group
0,72 Insurance
GKN 0,38 Automobiles &
Parts
Old Mutual 0,59 Insurance
Associated British Foods 0,58 Food &
Beverage
Prudential 1,95 Insurance
Coca-Cola HBC AG 0,18 Food &
Beverage
Resolution 0,25 Insurance
Diageo 2,83 Food &
Beverage
RSA Insurance
Group
0,27 Insurance
SABMiller 1,71 Food &
Beverage
St.James Place 0,25 Insurance
Unilever 1,86 Food &
Beverage
Standard Life 0,54 Insurance
Barratt Developments 0,24 Personal &
Household Goods
British Land Co 0,39 Real Estate
British American Tobacco 3,80 Personal &
Household Goods
Hammerson 0,24 Real Estate
Burberry Group 0,37 Personal &
Household Goods
Land Securities
Group
0,48 Real Estate
Imperial Tobacco Group 1,41 Personal &
Household Goods
Aberdeen Asset
Management
0,22 Financial
Services
Persimmon 0,25 Personal &
Household Goods
Hargreaves
Lansdown
0,19 Financial
Services
Reckitt Benckiser Group 1,90 Personal &
Household Goods
London Stock
Exchange Group
0,21 Financial
Services
10. López Caballero Francisco
-4-
AstraZeneca 2,92 Health Care Schroders 0,18 Financial
Services
GlaxoSmithKline 4,67 Health Care ARM Holdings 0,84 Technology
Shire 1,04 Health Care Sage Group 0,28 Technology
Smith & Nephew 0,49 Health Care
Tabla 1. Composición del FTSE100 y ponderación por sectores económicos.
Fuente: FTSE.com, Mayo 2014
3. El MODELO BLACK & SCHOLES
En consonancia con fuerte desarrollo vivido por los mercados financieros durante los
últimos 20-30 años y la consecuente ganancia de importancia relativa de la industria
financiera en los mercados mundiales, han ido apareciendo a lo largo de estos años
métodos de valoración de productos financieros los cuales apoyándose en la
aplicación de métodos matemáticos y estadísticos, han tenido como objetivo el de
realizar valoraciones correctas y fiables de los distintos productos financieros que han
ganado en grado de complejidad y diversidad. Estos productos pueden ser valores,
bonos, divisas y derivados, como las opciones.
Este enfoque basado en la utilización de herramientas estadísticas y matemáticas
tiene su origen en la publicación de la fórmula Black-Scholes en 1973 para el cálculo
de opciones europeas. Esta publicación fue realizada Robert C. Merton el cual se
había ayudado para ello de los modelos estocásticos desarrollados por Fischer Black
y Myron Scholes, haciendo referencia a un modelo matemático que fue empleado para
estimar el valor actual de opciones europeas para la compra o venta de acciones en
una fecha futura.
Fue tal la repercusión de esta fórmula que en 1997, Merton y Scholes recibieron el
premio Nobel de economía. En su origen, como ya hemos mencionado estaba ideado
para la valoración de opciones de tipo europeo, en las cuales la ejecución legal del
contrato se produce en el momento del vencimiento. Debemos apuntar que estas
opciones son instrumentos en los cuales se atribuye a la parte compradora el derecho
de comprar o vender en el futuro un determinado activo al precio acordado en el
contrato o “strike-price” y a la contraparte la obligación de vender o comprar dicho
activo en la fecha de vencimiento. Sin embargo, más adelante se amplió para
opciones americanas y mercado monetario.
En este contexto, Scholes y Merton fundaron el fondo de inversión Long Term
Capital Portfolio L.P. que se incluyó en el fondo especulativo Long Term Capital
Management fundado por John Meriwether en 1994, usando su fórmula para el cálculo
de opciones y otros productos derivados. En sus inicios el fondo proporcionó una
rentabilidad neta del 40 por ciento a sus inversores pero en 1998 perdió 4600 millones
de dólares en cuatro meses durante la crisis del rublo ruso y la crisis financiera
asiática. Esto hizo que el fondo tuviese que ser rescatado por otras instituciones
financieras bajo la supervisión de la reserva federal y que finalmente fue cerrado en el
año 2000 (Greenspan, 2007).
El componente probabilístico de este modelo se basa en la distribución teórica de
las variaciones de la cotización del activo subyacente entre periodos de tiempo. La
distribución teórica utiliza el supuesto sobre el modelo que sigue la distribución de las
variaciones de las cotizaciones. Dicho modelo, se denomina movimiento browniano, el
cual está basado en la distribución normal. La fórmula de Black & Scholes para
opciones de compra (call) y de venta (put) es la siguiente:
Call: SN (d1) – Ke-rTN (d2) Put: - SN (-d1) +Ke-rTN (-d2)
Donde d1 y d2 son calculadas como:
11. TFG-ECO. Un análisis estadístico del FTSE 100
-5-
d1:
( ) ( )
d2:
Siendo S el precio del activo subyacente en el momento de valoración, K es el
“strike Price” de la opción, es decir, el precio pactado para la compra-venta del
subyacente en el momento de vencimiento del contrato, σ representa la volatilidad o
desviación típica, r es la tasa de interés libre de riesgo (interés de bonos de estados,
depósitos bancarios, etc.), T es el tiempo desde el momento de la valoración hasta el
vencimiento del contrato y N es la función de distribución de un variable aleatoria
normal estándar. En torno a N desarrollaremos este trabajo, ya que es la variable que
aporta al modelo estudiado la definición matemática de las probabilidades de las
variaciones de la cotización.
El funcionamiento del modelo es el siguiente, realiza una proyección del precio del
activo subyacente del contrato ajustada a la distribución normal considerando la tasa
de interés de libre riesgo y la volatilidad implícita. Esto permite definir la cotas máximas
y mínimas esperadas de las variaciones del subyacente, el valor de la opción según se
trate de una call o put dependerá de la diferencia entre algunas de estas cotas y el
strike (Knopp, 2005).
Como requerimos de un modelo que represente estadísticamente el valor S (T) del
subyacente en el periodo T, debemos utilizar un modelo dinámico para el precio S (t)
del subyacente para todos los momentos t ocurridos antes del vencimiento T. El
modelo dinámico que introduce la fórmula de Black-Scholes es el movimiento
browniano geométrico, o proceso log-normal (Martinez y García, 2003).
En definitiva, el modelo Black & Scholes tiene como premisas básicas las
siguientes:
Las cotizaciones fluctúan de la misma forma que un movimiento browniano
geométrico.
Los mercados de acciones, bonos opciones y cualquier otro tipo de producto
financiero susceptible de ser valorado funcionan sin costes de transacción,
márgenes de seguridad o impuestos.
Los valores que se negocian son infinitamente divisibles y se puede operar en
cualquier momento, es decir, los mercados siempre están abiertos.
El tipo de interés sin riesgo es conocido y constante a lo largo del tiempo.
Los inversores pueden prestar y endeudarse al tipo de interés sin riesgo.
No existe limitación para las ventas al descubierto. Los vendedores al
descubierto pueden disponer plenamente de los ingresos de tales ventas y no
están obligados a efectuar ningún depósito en garantía.
La opción es de tipo europeo, solo se puede ejercer en el vencimiento.
La acción subyacente no paga dividendos antes de la fecha de vencimiento de
la opción.
3.1.El movimiento browniano
Es la más importante de todas las premisas del modelo de Black & Scholes ya que
considera que la evolución de la cotización de un activo financiero se asemeja a la del
movimiento browniano geométrico, por tanto es la que aporta la definición
matemática al modelo, la cual es imprescindible para su formulación. La contrastación
de esta premisa básica forma parte muy importante en el desarrollo de nuestro trabajo.
Para analizar si este modelo es un modelo correcto para la valoración de
productos financieros vamos a contrastar algunos de los supuestos teóricos que
establece el modelo con la experiencia empírica basándonos en los datos reales de
12. López Caballero Francisco
-6-
los mercados financieros. Para ello, se realiza un análisis y posteriormente una
comparación entre el comportamiento teórico y los datos empíricos observados, es
decir, las cotizaciones reales dadas por de cierre diario, semanal y mensual del índice
FTSE 100.
3.2.Historia: Origen y autores
El movimiento browniano tiene su origen en Inglaterra alrededor de 1827 cuando el
médico y botánico escocés Robert Brown (1773-1858) se encontraba realizando
investigaciones examinando con el microscopio minúsculas partículas de polen(Brown
1828). Mediante la observación de estas partículas suspendidas en agua y diferentes
líquidos comprobó que se desplazaban ininterrumpidamente sin seguir un patrón
determinado impulsadas por las continuas colisiones con moléculas colindantes. Sin
embargo, no fue hasta 1900 cuando Louis Bachellier para modelizar las fluctuaciones
de las acciones de la bolsa de París convirtiéndose en el primer precedente de la
aplicación de este modelo al campo de las finanzas en su trabajo Théorie de la
Spéculacation (Davis y Etheridge, 2006). A partir de ese momento, el fenómeno del
movimiento browniano motivó el interés de numerosos científicos de primer nivel como
Albert Einstein en 1905, Norbert Wiener 1923, Paul Lévy 1939 o Samuelson en 1965
aplicándolos a una multitud de disciplinas.
Lo más significativo en relación con el desarrollo de este trabajo es que, desde las
primeras investigaciones sobre mercados financieros se han tomado las
características del movimiento browniano como similares a las de las cotizaciones de
los mercados financieros (Venegas, 2008).
3.3.Marco teórico: características y modelos matemáticos
Un proceso estocástico es una familia de variables aleatorias parametrizadas por el
tiempo t, es decir, para cada t dado, X(t) es una variable aleatoria. El movimiento
browniano B(t) es un proceso estocástico que comienza en el origen, es decir, B(0)= 0,
y que satisface las siguientes propiedades:
Incrementos independientes: la variable aleatoria B(t)-B(s) es independiente de
variable aleatoria B(u)-B(v) cuando t > s ≥ u > v ≥ 0.
Incrementos estacionarios: la distribución de B(t)-B(s) para t > s ≥ 0 es sólo una
función de (t-s), y no de t y s por separado.
Incrementos normales: la distribución de B(t)-B(s) para t > s ≥ 0 es normal con
esperanza 0 y varianza t-s.
La propiedad 3 implica la propiedad 2, por lo que la propiedad 2 es superflua. Sin
embargo, si tenemos en cuenta un proceso estocástico L(t) que satisface sólo las dos
primeras propiedades, L(t) sería un proceso de Lévy. Por lo tanto, vemos que el
movimiento browniano es un caso particular de un proceso de Lévy ( Benth, 2004).
A partir de la definición de un movimiento browniano, vemos que B(t) es una
variable aleatoria para cada tiempo t. Pero, por otra parte, para cada resultado ω del
espacio muestral Ω, tenemos una función del tiempo, B (t, ω). Esta función se conoce
como la trayectoria del movimiento browniano. Para cada resultado ω tenemos un
camino o trayectoria, que llamamos un camino muestral.
Sin embargo, aunque movimiento browniano presenta características muy
cercanas a las de las cotizaciones de los activos financieros, es incapaz de
representar correctamente el comportamiento de todas las variables que influyen en la
variabilidad de los precios. Esto supone un primer argumento para realizar una crítica
al modelo Black & Scholes, ya que el movimiento browniano forma parte del núcleo de
éste y de otros modelos financieros y económicos.
13. TFG-ECO. Un análisis estadístico del FTSE 100
-7-
3.4.Simulación del movimiento browniano.
Utilizando como herramienta el software estadístico R se simulará un movimiento
browniano estándar para observar que se parece a las variaciones en las cotizaciones
de los mercados financieros.
Para ello generamos una muestra aleatoria de distribución N (0,1) que simula las
variaciones entre periodos de un hipotético índice, en escala logarítmica, a los cuales
llamaremos logreturns. La cotización en los periodos se calcula como la suma
acumulada de los logreturns, por tanto la gráfica resultante aún está representada en
escala logarítmica de tratarse de un mercado financiero real.
La razón fundamental para introducir los logreturns es disponer de la propiedad de
aditividad, lo cual permite realizar la suma acumulada de toda la serie de datos, de
haber sido en rendimientos simples (tasas de variación), no podríamos haber realizado
la representación mediante suma acumulada. El argumento matemático en que nos
basamos es el siguiente: el valor de la tasa de variación de un periodo a otro de una
serie se aproxima al valor de la variación de un periodo a otro de la misma serie en
escala logarítmica (logaritmo natural):
( )
Donde es el valor de la cotización del índice en el momento i, y debe cumplirse
que .
En la figura 1, podemos observar las gráficas de los movimientos brownianos
generados, con los periodos representados en el eje horizontal y las cotizaciones en el
eje vertical. A golpe de vista podemos comprobar que estos movimientos simulados se
asemejan a las oscilaciones de los valores de cualquier mercado financiero real.
Figura 1. Tres trayectorias del movimiento browniano estándar, el el eje horizontal
viene representado el tiempo, en el vertical, las cotizaciones.
0 100 200 300 400 500
-30-20-100102030
14. López Caballero Francisco
-8-
4. DATOS EMPÍRICOS DEL FTSE 100
En esta sección y las sucesivas se usan los datos empíricos del índice FTSE100
(Financial Times Stock Exchange) del mercado de valores de Reino Unido recogidos
desde el 1 de Enero del año 2000 hasta el 31 de Diciembre año 2013. Las
cotizaciones se refieren a precios de cierre en el día, semana o mes obtenidos a
través de la página web www.finance.yahoo.com. Las cotizaciones aparecen
expresadas en puntos básicos.
En la figura 2, se han representado los datos de cierre diarios del FTSE 100 desde
el 01/01/2000, hasta el 31/12/2013 podemos apreciar que el movimiento browniano
representado en la Figura 1 se asemeja a las variaciones de los precios de los
mercados financieros y de sus índices agregados. En el eje horizontal está
representado el tiempo y en el eje vertical, las cotizaciones:
Figura 2. Gráfico cotización diaria del FTSE 100, datos diarios al cierre. Fuente:
FTSE.com. Datos del 01/01/2000 a 31/12/2013.
Seguidamente, se han estimado los parámetros de la distribución Normal µ y como
la media y la desviación típica de la muestra, estos vienen adjuntos en la siguiente
tabla:
Media D.Típica C.V. Me Máx Min
Diario -0.00000072 0.01247 0 0.0938 -0.0926
Semanal 0.0000505 0.02568 0.0018 0.1258 -0.2363
Mensual 0.0004423 0.04186 0.007 0.0829 -0.1395
Tabla 2: Media, desviación típica, coeficiente de variación, Mediana, Máximo y
Mínimo obtenidos a partir de los logreturns del FTSE100.Fuente: FTSE.com. Datos de
la serie diaria, semanal y mensual de 1/1/2000 a 31/12/2013
2000 2005 2010
4000500060007000
15. TFG-ECO. Un análisis estadístico del FTSE 100
-9-
Si observamos el coeficiente de variación, una medida de dispersión relativa, medida
como el cociente entre la desviación típica y la media aritmética del conjunto de datos,
nos muestra que la volatilidad es menor cuanto mayor son los intervalos temporales t
de la muestra
Llegados a este punto, se puede establecer que las cotizaciones de un mercado
no son recogidas de forma adecuada por el movimiento browniano, en principio, los
precios no parten de cero, además las desviaciones típicas no tienen por qué ser
proporcionales al tiempo.
El movimiento browniano geométrico se obtiene a partir de una transformación
a exponencial de este mismo movimiento estándar. Su expresión matemática es la
siguiente:
Donde μ es la variación media de la cotización del subyacente (parámetro de
tendencia) y σ su desviación típica (parámetro de volatilidad), S(0) es el precio inicial
conocido de la cotización y B(t) es el movimiento browniano estándar ( Benth, 2004).
Por tanto, el cociente entre dos periodos será calculado como:
Para la elaboración de la figura 3, se ha generado una muestra de valores
aleatorios de datos para una distribución normal con parámetros estimados a través de
nuestra muestra de cierres en periodos de un día y un mes del FTSE100. Se ha
llamado S0 a la cotización del primer instante temporal de cada muestra y se ha
realizado sobre esa cotización la suma acumulada de los valores aleatorios, por último
hemos cambiado la escala y la hemos hecho exponencial a la suma acumulada de
dichos valores.
16. López Caballero Francisco
-10-
Figura 3: movimiento browniano generado a partir de datos de cierre
diarios(superior) y mensuales (inferior) del FTSE 100 con datos del 01/01/2000 al
31/12/2013
5. AGREGACIÓN GAUSSIANA
A través de la observación de la naturaleza, se ha constatado que existen multitud de
variables asociadas a fenómenos naturales que siguen una distribución Normal, como
puede ser la estatura, el coeficiente intelectual, etc. Según el Teorema Central del
Límite (García Barbancho,1992) cualquier media tipificada con n suficientemente
grande se aproxima a la distribución Normal estándar N(0,1). Comúnmente se acepta
que para n mayor o igual que 30 el parecido entre las funciones de distribución de
cualquier media tipificada y la distribución Normal estándar N(0,1) es bastante
apreciable.
La Agregación Gaussiana es un fenómeno según el cual la densidad de una
variable empírica tiende a converger a la de una distribución Normal a medida que se
van ampliando los intervalos de tiempo entre observaciones y por tanto sus funciones
de densidad se parecen más. En este apartado se analiza qué grado de ajuste hacia la
distribución Normal tiene la muestra empírica del FTSE100 y también si ocurre el
2000 2005 2010
4000500060007000
2000 2005 2010
5600580060006200640066006800
17. TFG-ECO. Un análisis estadístico del FTSE 100
-11-
fenómeno de la Agregación Gaussiana a través un contraste de hipótesis y la
representación gráfica de las densidades empíricas y teóricas normales.
En lo relativo a la agregación Gaussiana, se ha de tener presente que debido a la
propiedad aditiva que proporciona la escala logarítmica a las variaciones entre
periodos (logreturns), el valor de la variable en un determinado intervalo puede
obtenerse como la suma de los valores de la variable en cada intervalo en los que la
primera se divide, por ejemplo, para el dato semanal:
∑
Y para el mensual:
∑
5.1. TEST DE NORMALIDAD
Los test de normalidad son contrastes de hipótesis en los que la hipótesis nula (H0) es
que la distribución que ha generado la muestra se ajusta a la de una distribución
Normal, y la hipótesis alternativa (H1) es que la distribución no se ajusta a una
distribución Normal. Para considerar como válida la hipótesis nula es necesario que
los parámetros calculados tomen unos valores determinados según el tipo de prueba o
test de normalidad.
5.1.1. Contraste de Kolmogórov-Smirnov (Corrección de Lilliefors)
El contraste de Kolmogorov-Smirnov compara los valores de una distribución empírica
con los que se derivarían de la distribución supuesta como hipótesis nula. La
corrección de Lilliefors es una mejora introducida para el caso de la distribución
Normal.
Por tanto, la hipótesis nula es que la distribución de los log-returns del FTSE100
sea Normal (H0= La distribución de la muestra es normal).El estadístico de
Kolmogorov-Smirnov se basa en la máxima distancia observada entre ambas
funciones de distribución teórica y observada y es denominado como D (Ruppert,
2004), el valor hasta donde se debe bajar el nivel de significatividad para no tener que
rechazar H0 viene determinado por el p-valor, de forma típica y para cualquier test el p-
valor tiene que ser menor o igual que 0,05 para que la hipótesis nula sea rechazada al
nivel de significatividad generalmente aceptado del 5% (Lillefors, 1967):
Donde es el i-ésimo valor observado en la muestra (cuyos valores se han
ordenado de menor a mayor), es un estimador de probabilidad de observar
valores menores o iguales que y es la probabilidad de observar valores menores
o iguales que en una distribución Normal con media y desviación típica estimada a
partir de la muestra.
D p-valor
Diario 0.9778 2.2e-16
Semanal 0.9661 2.2e-16
Mensual 0.8808 2.2e-16
Tabla 3: contraste de Kolmogorov-Smirnov y respectivos p-valores.
18. López Caballero Francisco
-12-
La interpretación de estos resultados es la siguiente. Cuanto más se aproxime D
a 0 mayor será el grado de ajuste de normalidad de la muestra y viceversa. El valor
de los estadísticos y de los p-valores que podemos ver no cumplen los requisitos
que permitan dar por válida H0 al 5% de significatividad, por lo tanto, podemos decir
que basándonos en esta prueba, los logreturns del FTSE 100 no se ajustan a la
distribución normal en ninguna de las muestras con distintos intervalos de tiempo.
Sin embargo, podemos observar en cierta medida el fenómeno de la agregación
gaussiana, ya que a medida que ampliamos los intervalos de tiempo, se va
produciendo un mayor grado de ajuste a la distribución Normal, El estadístico D se
acerca más a 0.
5.2. COMPARACIÓN GRÁFICA DE DENSIDADES
En este apartado se realiza una comparación a través de las gráficas de la función de
densidad teórica normal con parámetros estimados a partir de la muestra de logreturns
del FTSE100 bajo los supuestos del modelo de Black & Scholes (línea discontinua) y
la densidad empírica observada (línea continua) para las series temporales diaria,
semanal y mensual respectivamente. En esta representación gráfica se observa, al
igual que en el contraste anterior, el efecto de la agregación Gaussiana, ya que cuanto
mayor son los intervalos de tiempo entre observaciones, más se parecen las dos
curvas representadas.
Este fenómeno se hace patente en la progresiva convergencia de los máximos
máximos de las curvas de densidad empírica y teórica, esto es, disminución progresiva
del exceso de curtosis de la densidad empírica.
Figura 4. Densidades teóricas normales (línea discontinua) y empíricas (línea
continua) del FTSE 100 (de izquierda a derecha) diarias, semanales y mensuales.
5.2.1. Colas pesadas y medidas de forma
Como podemos ver, es fácil criticar la distribución normal de los logreturns, ya que
subestima la probabilidad de sucesos extremos, en este caso las variaciones de gran
tamaño en el índice estudiado, es decir infravalora los valores de la variable en las
colas de la función de densidad. Para analizar, el error cometido por la normal en el
peso de las colas utilizaremos el Valor en Riesgo (Value at risk), posteriormente las
medidas de formas asimetría y curtosis y finalmente representaremos las curvas de
densidad de la figura anterior en escala logarítmica para observar mejor las colas.
5.3. VALUE AT RISK
Este es un método muy utilizado en el campo de las finanzas y seguros. Se trata de un
valor extremo que en caso de ser alcanzado o superado generaría importantes
pérdidas para el agente económico afectado, para un determinado horizonte de tiempo
en circunstancias normales de mercado. (Venegas , 2008).
-0.05 0.00 0.05
01020304050
-0.15 -0.10 -0.05 0.00 0.05 0.10 0.15
05101520
-0.15 -0.10 -0.05 0.00 0.05 0.10 0.15
0246810
19. TFG-ECO. Un análisis estadístico del FTSE 100
-13-
Este método también utiliza como premisa que las variaciones entre periodos se
ajustan a una distribución normal, es por eso que vamos a aplicarlo en las
distribuciones teóricas y empíricas para comprobar en qué grado la distribución normal
subestima la probabilidad de sucesos extremos. Para ello calculamos los percentiles
de orden 1%,2%,98% y 99%, los cuales se encuentran en mejor posición para reflejar
las colas. Los resultados de este método se adjuntan en la tabla 4:
Percentil Empírico Teórico
0.01 -0.03598001 -0.02903750
0.02 -0.02804833 -0.02563577
0.98 0.02669749 0.02562126
0.99 0.03266433 0.02903750
Tabla 4. Valores de los percentiles de la serie diaria empírica y teórica del
FTSE100.
Con estos datos, podemos comprobar que la densidad probabilística de los extremos
en la distribución teórica es menor que la de la distribución empírica. Esto nos dice de
que la distribución empírica del FTSE 100 genera colas más pesadas que la
distribución normal y por tanto, se observa una mayor probabilidad de sucesos
extremos en los datos empíricos que la que predice el modelo, lo que nos indica que
no se está valorando correctamente el riesgo, lo que es fundamental para el análisis
de los mercados financieros. Además, estos datos nos revelan que existe asimetría en
la distribución empírica, a diferencia de lo observado en la normal estimada, que se
hace más patente en los percentiles extremos.
5.4. DENSIDADES EN ESCALA LOGARÍTMICA
En la figura 5, podemos ver representadas las gráficas de la figura 3 pero con escala
logarítmica en el eje de ordenadas, aquí podemos ver como la densidad teórica (línea
discontinua) subestima la probabilidad de cambios extremos en el índice, quedando
esta por debajo de la densidad empírica (línea continua) en las colas :
Figura 5.Densidades teóricas normales (línea discontinua) y empíricas obtenidas
(línea continua) para las series (de izquierda a derecha) diarias, semanales y
mensuales del FTSE 100 y escala logarítmica.
5.5. TEST JARQUE-BERA: MEDIDAS DE FORMA
Este test es un contraste de normalidad basado en el estudio de las medidas de forma
(asimetría y curtosis). Consiste en examinar las discrepancias de la distribución de la
muestra observada respecto de la de la distribución que se le asocia en la hipótesis
nula, que es la distribución Normal.
-0.06 -0.04 -0.02 0.00 0.02 0.04 0.06
-4-2024
-0.10 -0.05 0.00 0.05 0.10
-4-2024
-0.2 -0.1 0.0 0.1
-2-10123
20. López Caballero Francisco
-14-
5.5.1. Asimetría
Este es un fenómeno estadístico a través del cual los valores observados se desvían
de la media con exceso por un lado y defecto hacia el otro lado de la función de
densidad, es decir, la variable toma valores más extremos sobre o por debajo de la
media.
El coeficiente de asimetría se suele denominar como g1, su valor es 0 en
distribuciones simétricas por tanto, si es mayor que 0 es asimetría positiva, es decir los
valores se alejan más sobre la media, y si es menor que 0, indica asimetría negativa.
Cuanto más alejado de 0 sea g1 más alejada estará la muestra de la situación
simétrica. En cualquier caso, la detección de asimetría implica la consideración de no
normalidad. Para considerar si el valor del estadístico está significativamente lejano o
cercano a cerno se necesita determinar el nivel de significación o conocer el p-valor.
La fórmula más utilizada para calcular el estadístico g1 es el coeficiente de asimetría
de Fisher basado en los momentos de orden 3 respecto a la media y la desviación
típica (Martín-Pliego, 2007):
Siendo el tercer momento central, y la desviación típica:
∑ ̅ , ∑ ̅ ⁄
Los valores y los p valores obtenidos aparecen reflejados en la tabla 4:
SERIE p-valor
Diaria -0.1531119 0.000158
Semanal -1.115023 0
Mensual -0.7004345 0.419219
Tabla 5: Coeficiente de asimetría de Fisher y significatividad.
Los datos obtenidos nos indican que todas las distribuciones son asimétricas a la
izquierda, como indican los datos del estadístico y sus p-valores, todos menores que el
valor crítico del 5%, exceptuando la serie mensual, cuyo p-valor supera con creces el
5%. En cuanto al fenómeno de agregación gaussiana, solo podemos observar este en
base a la menor asimetría de la serie mensual en comparativa con la serie semanal.
5.5.2. Curtosis o apuntamiento
La curtosis es un parámetro de forma que estudia la proporción de la varianza que se
explica por la combinación de datos extremos respecto a la media en contraposición
con los que están poco alejados de esta misma. Un exceso de curtosis se materializa
en una mayor concentración de datos cerca de la media de la distribución junto con
alta concentración de datos muy alejados de estas. La curtosis de una distribución
normal es 3, por eso el estadístico utilizado para contrastar la normalidad es el exceso
de curtosis g2 mediante el momento de orden 4 respecto de la media y la desviación
típica. Al igual que ocurre con la asimetría la aceptación del estadístico como
significativamente lejano o cercano a cero vendrá dada por el nivel de significatividad
(Martín-Pliego, 2007):
Donde es el tercer momento central y la desviación típica:
∑ ̅ ∑ ̅
21. TFG-ECO. Un análisis estadístico del FTSE 100
-15-
En la tabla 6 vemos como las series diaria y semanal y mensual reflejan un
exceso de curtosis o apuntamiento que va diluyéndose a medida que aumentan los
intervalos de tiempo entre los logreturns. Este resultado nos puede llevar a pensar en
el fenómeno de la agregación gaussiana. El p-valor supera el valor crítico de 0.05 en la
serie mensual, mientras que es muy cercano a 0 en las demás series. La curtosis es
menor en la serie mensual que en la semanal, lo que nos permite aceptar cierto nivel
de agregación gaussiana.
Serie p-valor
Diario 9.235182 0
Semanal 14.94744 0
Mensual 3.696271 0.06625882
Tabla 6. Curtosis y sus correspondientes p-valores
5.5.3. Test Jarque-Bera
Es un test exclusivo para la distribución normal, basado en el ajuste entre los
parámetros de asimetría y curtosis de la distribución empírica y una distribución normal
teórica. El estadístico se calcula con la siguiente fórmula (Bera; Jarque, 1980):
( )
Serie X-squared p-valor
Diaria 5928.504 2.2e-16
semanal 4492.97 2.2e-16
mensual 17.0286 0.0002006
Tabla 7. Test de Jarque-Bera y p-valores para las series diarias, semanales y
mensuales del FTSE 100.
Observando los datos podemos constatar que en base a este test, la distribución diaria
y semanal no sigue una distribución normal, estando algo más cercana para la
muestra mensual aunque también se rechaza que siga una distribución una
distribución normal. Basándonos en el análisis de los estadísticos se puede afirmar
que la muestra empírica de los datos presenta el fenómeno de la agregación
gaussiana, al aumentar los niveles de confianza a medida que los intervalos
temporales son mayores.
6. LA DISTRIBUCIÓN NORMAL INVERSA
GAUSSIANA
Como podemos comprobar en base al análisis realizado anteriormente, la distribución
normal no modeliza de forma fiel las variaciones de los logreturns de las cotizaciones
de los activos de la muestra, los datos empíricos reflejan asimetría y un exceso de
curtosis o apuntamiento, además las colas de la función de densidad generalmente
son más pesadas revelandose la información de que la distribución normal infravalora
la probabilidad de variaciones de carácter extremo, en la cotización del índice
estudiado.
Como alternativa, se expone y se utiliza un modelo alternativo, introducido por
Nielssen Brandorf en 1977 para modelizar la distribución del tamaño de los granos de
arena en las playas danesas. Esta distribución es la Normal Inversa Gaussiana o NIG
22. López Caballero Francisco
-16-
para abreviar, que posteriormente a su introducción se aplicó al campo de las finanzas
y es sugerida por diversos autores como una alternativa a la distribución normal
(Venegas, 2008). Utilizando el programa estadístico R se estudian los parámetros de
este modelo y se analiza gráficamente la distribución para contrastar si este es más
apropiado para reflejar las variaciones de los activos en los mercados financieros.
Esta distribución tiene 4 parámetros, α, β, µ, δ. El parámetro µ es de posición
central, mientras que la asimetría de la distribución NIG viene determinada por β, es
decir, si β>0, la distribución es asimétrica a la derecha y si β<0 es asimétrica al a
izquierda. El caso de β=0 corresponde a una distribución NIG simétrica. El parámetro
de escala es δ, el cual representa una función muy similar que la desviación típica en
la distribución normal, y por último α modeliza el peso de las colas de la distribución.
La densidad de probabilidad de esta distribución es:
√
√
Donde k es la constante de escala = √
y es la función de
Bessel modificada(O'neill, 2008) de tercera clase con índice 1, es decir:
∫ ( )
De la definición de la función de densidad se deduce que los parámetros de
densidad y deben satisfacer | | Además >0.
Si la distribución de una variable aleatoria L es una NIG escribimos
L~NIG . La media y la varianza de L vienen dadas por:
[ ]
√
[ ] ⁄
En la figura 6 se han representado 6 ejemplos de distribución NIG con diferentes
valores de los parámetros. Las 4 superiores están centradas en el origen con un
parámetro de escala δ=0,015. La variación de las colas se puede observar en las
gráficas cuando =30, las dos gráficas superiores de la derecha las colas tienen una
forma hiperbólica y para =150, gráficas de la izquierda son casi lineales. Cuando
utilizamos escala logarítmica, en las gráficas centrales con =30 a la izquierda, y
=150 a la derecha la densidad de la normal con media y varianza iguala a la de la
NIG tiene siempre colas en forma parabólica.
Las dos gráficas inferiores, tienen como parámetros =30, y en la izquierda,
y en la derecha. Se ve en estas gráficas como al variar , las curvas de la NIG
se vuelven asimétricas. Si es positivo, la cola de la izquierda de la línea continua
(NIG) se asemeja más a la curva discontinua (Normal), ocurriendo lo contrario si
toma un valor negativo. No debemos olvidar sin embargo lo que ocurre con , como
podemos ver en las dos gráficas superiores de la derecha, al pasar de un valor 30 a
150, las colas se vuelven más lineales, mientras que en las demás gráficas, la curva
en sus extremos está por encima de la curva de la distribución normal.
23. TFG-ECO. Un análisis estadístico del FTSE 100
-17-
Figura 6. Comparativa de las gráficas de la NIG. Fila superior ( , izquierda
y =150, derecha), fila intermedia, ídem que superior con escala logarítmica todas con
=0. Las inferiores, de izquierda a derecha, y .
Dado que la densidad de la distribución NIG es conocida, se puede estimar por
máxima verosimilitud sus parámetros, sin embargo, cómo podemos ver en la
expresión esto es un problema que no permite solución explícita como en el
caso de la distribución normal.
Terminamos esta sección mencionando un resultado de la convolución de
variables aleatorias NIG independientes. Si X e Y son dos variables NIG
independientes con parámetros (α, β, μx, δx) y (α, β, μy, δy) respectivamente,
entonces X + Y es una NIG distribuida con parámetros (α, β, μx + μy, δx + δy). Por
tanto, La distribución NIG tiene la propiedad de la convolución de las distribuciones
normales, siempre y cuando α y β sean iguales.
-0.05 0.00 0.05
0510152025
-0.04 -0.02 0.00 0.02 0.04
010203040
-0.10 -0.05 0.00 0.05 0.10
-2-101234
-0.15 -0.10 -0.05 0.00 0.05 0.10 0.15
-15-10-50
-0.05 0.00 0.05
0510152025
-0.05 0.00 0.05
0510152025
24. López Caballero Francisco
-18-
6.1. ESTIMACIÓN DE LOS PARÁMETROS NIG
A continuación estimamos los parámetros de la NIG por el método de la máxima
verosimilitud. Este método consiste en seleccionar el valor del parámetro que parece
más coherente o verosímil a partir de la muestra obtenida. Es decir, si la muestra es
se selecciona el valor del parámetro que maximiza la expresión |
para la muestra obtenida. es la función de máxima verosimilitud del
parámetro buscado para la muestra en cuestión, donde representa el parámetro a
estimar. Lo que en definitiva se hace para estimar un parámetro por el método de
máxima verosimilitud es seleccionar como más convincente el valor del parámetro
donde la densidad de la muestra es mayor. La ecuación que hay que resolver para
calcular el valor del parámetro es Si es un parámetro de
dimensión , entonces habrá que resolver el sistema de k ecuaciones con k
incógnitas donde j = 1,2,…. k (Alvarado, 2008).
Los parámetros estimados para la distribución NIG aparecen reflejados en la tabla
8, a partir de estos datos podemos comparar la densidad con la de la distribución
normal estimada y la de la muestra empírica.
Serie α β
diaria 57.05522 -4.936 0.0087785 0.00075506
semanal 40.19202 -7.77744 0.0232595 0.004638111
mensual 50.63565 -24.4570 0.0604569 0.03379096
Tabla 8. Parámetros de la NIG estimados a partir de los logreturns diarios,
semanales y mensuales del FTSE100.
En la figura 7 presentamos la NIG ajustada (línea discontinua) junto con la densidad
empírica (línea continua) y la distribución normal estimada (línea discontinua) para
datos diarios, semanales y mensuales. Se observa como la distribución se ajusta a la
empírica tanto las colas como en la zona central, a diferencia de lo que ocurría con la
distribución normal. Sin embargo, al contrario que ocurría con el modelo de Black &
Scholes, este mejor ajuste va desapareciendo si aumentamos los intervalos de tiempo.
Por tanto, la NIG recoge mejor la distribución de la muestra cuando trabajamos con
intervalos pequeños de tiempo.
En cuanto a las colas, a medida que aumentan los intervalos temporales de las
muestras todas las densidades se van pareciendo más a la normal. Sin embargo, la
distribución NIG siempre será la más flexible por su mayor número de parámetros y
flexibilidad, aunque la normal se acercará mucho o la igualará, nunca superará la
precisión de la NIG.
25. TFG-ECO. Un análisis estadístico del FTSE 100
-19-
Figura 7: Gráficos diarios semanales y mensuales, (de izquierda a derecha) de las
densidades de la NIG (línea punteada), junto con las densidades empíricas (línea
continua) y normal (línea discontinua), elaboradas a partir de los logreturns del
FTSE100.
7. ALTERNATIVA AL MODELO BLACK & SCHOLES
Como ya se ha visto, la distribución normal, al contrario que la NIG, no es un buen
modelo para los logreturns de los activos. En esta sección se va a presentar una
alternativa al modelo de B-S que se adapta mejor a los logreturns observados,
haciendo uso de la distribución NIG. Se considera una evolución de los precios de
forma exponencial S(t) = S(0) exp(L(t)), donde L(t) es un proceso estocástico con
incrementos independientes y estacionarios, siendo así un proceso de Lévy.
Por otra parte, en lugar de suponer incrementos normales, asumimos que L(t) -L(s)
sigue una distribución NIG para todo t > s ≥ 0. El proceso resultante se denomina
proceso de Lévy gaussiano inverso normal. Transformando los precios S(t) a
logreturns con incrementos de tiempo iguales a 1, se obtiene:
X(t) = L(t) – L(t-1)
Las variables aleatorias X(1), X(2), ... son independientes y siguen una distribución
NIG, ya que L(t)-L(t-1) tiene la misma distribución que L(1). Al igual que la sección
anterior, los parámetros α, β, μ y δ de L(1) se pueden estimar a partir de los log-returns
observados. Utilizando la propiedad de convolución de las distribuciones NIG, se tiene
que L(t) es de nuevo una variable NIG con parámetros α, β, μt y δt.
A diferencia del movimiento browniano, el proceso de Lévy gaussiano inverso
normal tiene caminos muestrales discontinuos. En consonancia con lo visto en la
secciones anteriores, un proceso de Lévy gaussiano inverso normal parece más
adecuado que un modelo de B-S para describir los precios de un activo financiero. Sin
embargo, el análisis de este proceso discontinuo es mucho más complicado que el de
un modelo de B-S y cae fuera de los objetivos del presente trabajo.
8. AUTOCORRELACIONES
Si observamos la figura 8, donde se representan los logreturns diarios del FTSE100
podemos ver que se observan periodos en los que existe mayor volatilidad en
contraste con periodos en los que las variaciones que se producen son más pequeñas.
Esto nos puede llevar a sospechar que los logreturns no sean totalmente
-0.06 -0.04 -0.02 0.00 0.02 0.04 0.06
01020304050
26. López Caballero Francisco
-20-
independientes entre sí como propone el modelo de BS, es decir, que existe cierto
nivel de dependencia por tramos temporales.
Para contrastar la hipótesis de independencia que plantea el modelo de Black &
Scholes se realiza un análisis gráfico de las autocorrelaciones entre las variaciones de
esta, para contrastar si las variaciones presentan algún nivel de dependencia:
Figura 8: Logreturns diarios del FTSE100, serie diaria desde 01/01/2000 hasta el
31/12/2013
Si consideramos como una serie temporal cualquiera de logreturns y asumiendo
que es estacionaria, es decir, el valor esperado de no depende del tiempo y la
covarianza de y solo depende del intervalo de tiempo s se tiene la
siguiente expresión:
Para una función donde , la autocorrelación con s retardos viene dada
por la fórmula:
( ) ,
donde es el valor de la variable X en el momento t.
La autocorrelación mide el sentido y la intensidad con el que un l logreturn
depende de los anteriores. Por tanto, la autocorrelación puede servirnos como
herramienta para predecir los precios futuros (Benth, 2004).
En la figura 9, representamos en la parte superior las autocorrelaciones sobre un
eje vertical con máximo 1 en las gráficas de la izquierda y un eje vertical ajustado a los
máximos y mínimos observados en las de la derecha, se deduce que los logreturns no
están correlacionados, ya que la mayoría están en la banda de confianza al 95%
centrada en el cero.
2000 2005 2010
-0.10-0.050.000.050.10
Index
XFTSED
27. TFG-ECO. Un análisis estadístico del FTSE 100
-21-
Sin embargo en las gráficas de las dos filas inferiores, donde se utiliza el valor
absoluto de los logreturns y los logreturns al cuadrado, se observa que todas son
positivas y que la gran mayoría se encuentran alejadas significativamente de 0, es
decir, fuera de la banda de confianza al 95%. Además observamos un descenso
progresivo en el valor de la autocorrelación, lo que significa que la correlación entre
dos tamaños de logreturns es mayor cuanto menor es la distancia temporal entre
ellos. En conclusión, aunque no parece que exista autocorrelación entre las
variaciones del FTSE 100, si las hay considerando el tamaño del índice a través del
valor absoluto o delsu cuadrado.
Se prueba por tanto que existe cierto nivel de autocorrelación en el tamaño de los
logreturns diarios del FTSE 100, lo cual contradice el planteamiento del modelo de
Black & Scholes basado en las características del movimiento browniano geométrico
que implícitamente supone que los logrenturns son independientes tanto en sus
valores como en sus tamaños.
28. López Caballero Francisco
-22-
Figura 9. Autocorrelaciones del FTSE 100. En la columna de la izquierda el máximo
es 1, en la columna de la derecha, los máximos y mínimos dependen del valor de las
autocorrelaciones de los logreturns. De arriba abajo, se muestra la autocorrelación de
los logreturns, la autocorrelación de estos en valores absolutos y la autocorrelación
de los mismos al cuadrado.
0 50 100 150
0.00.20.40.60.81.0
Lag
ACF
0 50 100 150
-0.050.000.05
Lag
ACF
0 50 100 150
0.00.20.40.60.81.0
Lag
ACF
0 50 100 150
0.00.10.20.3
Lag
ACF
0 50 100 150
0.00.20.40.60.81.0
Lag
ACF
0 50 100 150
0.00.10.20.3
Lag
ACF
29. TFG-ECO. Un análisis estadístico del FTSE 100
-23-
9. CONCLUSIONES
En el presente trabajo se ha puesto de manifiesto las diferencias existentes entre el
modelo teórico algunas consecuencias que se derivan de la adopción del modelo de
Black & Scholes para dinámica de las cotizaciones del índice FTSE 100 y la
observación de datos empíricos. Por tanto, supone una crítica a las premisas básicas
del modelo ya que algunas propiedades que de él se desprenden, no son avaladas por
la observación empírica en base a los datos del FTSE100. Se ha probado por tanto
que el movimiento browniano geométrico como modelo para los logreturns no resulta
adecuado por varios motivos. Además existen modelos como el basado en la
distribución normal inversa gaussiana que modelizan mejor los logreturns del
FTSE100.
En primer lugar, la densidad normal estimada, muestra un comportamiento muy
diferente a la densidad observada a partir de los datos, ya que en la distribución con
datos empíricos las funciónes de densidad revelan asimetría, exceso de curtosis y
colas pesadas. Como consecuencia del fenómeno de las colas pesadas, podemos
ceñirnos a la quiebra del fondo de inversión fundado por Merton y Scholes el cual
utilizando su fórmula de valoración que infravaloró la probabilidad de grandes cambios
en el mercado, como los provocados por el default ruso y las crisis financieras
asiáticas, lo que acabó en un rescate del fondo y su posterior desaparición. Sin
embargo, se observa que a medida que aumenta el tiempo entre observaciones, las
dos distribuciones se van asemejando lo que nos indica que existe el fenómeno de
agregación gaussiana, algo que se observa también en el test de Jarque-Bera, ya que
el p-valor es mayor para los datos mensuales. Además el test de normalidad realizado
muestra que la distribución de las variaciones de las cotizaciones entre intervalos no
sigue una distribución normal, como se deriva del modelo de Black and Scholes.
Seguidamente, se propone una distribución más flexible que permita explicar de
una forma más fiel el comportamiento de los logreturns observados del FTSE100, esta
es la normal inversa gaussiana, que en base a lo observado, parece ajustarse mejor al
comportamiento descrito por los logreturns del FTSE100. Sin embargo, el
planteamiento de un modelo para la evolución temporal de los valores de un activo
que plantee los logreturns siguiendo una NIG, nos lleva a la consideración de procesos
estocásticos de Lévy, los cuales son más difíciles de analizar y no entran en los
objetivos del presente trabajo
Finalmente, bajo el modelo Black & Scholes las autocorrelaciones de los logreturns
no deben ser significativamente diferentes de cero, ya que estos son independientes.
En cierta medida, podemos ver esto con los datos del FTSE100 pero en discrepancia,
observamos que si utilizamos valores absolutos o cuadrados, aparece una correlación
significativa incluso para grandes retardos, mostrando una dependencia entre los
tamaños de los logreturns del FTSE100. Este fenómeno de dependencia, lo convierte
en una herramienta útil para la gestión de carteras y para estrategias de arbitraje.
30. López Caballero Francisco
-24-
10. BIBLIOGRAFÍA
Jorge Andrés Alvarado (2008): “Fundamento de Inferencia Estadística”, Editorial
Pontificia Universidad Javeriana, Bogotá D.C.
Anil K. Bera; Carlos M. Jarque (1980): “Efficient tests for normality, homoscedasticity and
serialindependence of regression residuals”, en Elsevier B.V.: Economics Letters, Canberra,
Volume 3, Issue 6, 203-299.
Barndorff-Nielsen, O.E.; Halgreen, C. (1977): Infinite Divisibility of the Hyperbolic and
Generalized Inverse Gaussian Distributions. University of Aarhus, Dinamarca.
Black, F.; Scholes, M. (1973): “The pricing of Options and Corporate Liabilities”. Journal
Of Political Economy, 81, 637-654.
Brown, R. (1828), "A brief account of microscopical observations made in the months of
June, July and August, 1827, on the particles contained in the pollen of plants; and on the
general existence of active molecules in organic and inorganic bodies." Phil. Mag. 4, 161-
173.
Davis, M.; Etheridge, A. (2006): “Louis Bachelier´s Theory of $peculation”. Princeton
University Press, Estados Unidos.
www.FTSE.com http://www.ftse.com/Indices/UK_Indices/Constituents_and_Weights.jsp
Fred Espen Benth (2004): “Statiscal analysis of data from the stock market”, en
Springer:Option Theory with Stochastic Analysis, Berlin, Cap 1-2.
García Barbancho, Alfonso. (1992): Estadística teórica básica: probabilidad y modelos
probabilísticos. Ariel, Barcelona.
Alan Greenspan (2007): “The Age of Turbulence: Adventures in a New World”, The
Penguin Press, USA.
José Hernandez Alonso (1995): “Contraste de las hipótesis sobre perturbación aleatoria”,
en ESIC editorial: Introducción a la Econometría, Madrid, 157-180.
Roberto Knop (2005): “Modelos básicos de valoración y griegas”, en Ediciones Empresa
Global: Manual de Instrumentos Derivados. Tres décadas de Black-Scholes, Madrid, 125-
154.
O`Neil, P. (2008): “Matemáticas avanzadas para ingenieria”. Cengage Learning Editores,
México D.F.
Lillefors, H. W. (1967).”On the Kolmogorov-Smirnov Test for Normality with Mean and
Variance Unknow. Journal of American Statiscal Association, Vol. 62, No. 318, pp. 399-402.
Francisco Javier Martín-Pliego López (2007): “Introducción a la Estadística Económica y
Empresarial. Teórica y Práctica”, Editorial Thomson, Madrid.
José Javier Nuñez Velazquez (2011): “Análisis Dinámico Mediante Procesos
Estocásticos Para Actuarios y Finanzas”, Universidad de Alcalá (Servicio de publicaciones),
Alcalá de Henares.
Emmanuel Paradis (2003): “R para Principiantes”, Institut des Sciences de
l’Évolution,Montpellier.
Venegas Martínez.F (2008): “Riesgos Financieros y Económicos. Productos derivados y
decisiones económicas bajo incertidumbre”, Cengage Learning Editores, México, D.F.
31. TFG-ECO. Un análisis estadístico del FTSE 100
-25-
11. ANEXO
Para la realización de este trabajo se ha utilizado el software estadístico R (Paradis
(2003) es un manual básico) el cual se puede obtener del sitio web www.r-project.org.
A continuación, se muestran y se comentan las instrucciones usadas para llevar a
cabo el estudio empírico presentado.
Simulación del movimiento browniano estándar:
set.seed (23)
BA <- cumsum(rnorm(500,0,1))
par(mar=c(4,4,1,1))
plot(x=c(0:500),y=c(0,BA),type="l",lty=1,xlab="",ylab="",ylim=c(-38,38))
BB <- cumsum(rnorm(500,0,1))
lines (x=c(0:500),y=c(0,BB),type="l",lty=2)
BC <- cumsum(rnorm(500,0,1))
lines (x=c(0:500),y=c(0,BC),type="l",lty=3)
Descarga de las cotizaciones diarias, semanales y mensuales de la página web
http://es.finance.yahoo.com/ y representación del gráfico de las cotizaciones diarias:
library("tseries")
library("zoo")
FTSEd <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12-
31",
compression = "d", quote = "Close")
FTSEw <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12-
31",
compression = "w", quote = "Close")
FTSEm <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12-
31",
compression = "m", quote = "Close")
par(mar=c(4,4,2,1))
plot(FTSEd,xlab="",ylab="",type="l",lty=1)
nd=length(FTSEd); nw=length(FTSEw); nm=length(FTSEm);
Logreturns del FTSE100, diarios, semanales y mensuales:
XFTSED <- diff(log(FTSEd))
XFTSEW <- diff(log(FTSEw))
XFTSEM <- diff(log(FTSEm))
Obtención de la media, desviación típica, mediana, máximos y mínimos de los
logreturns diarios, semanales y mensuales del FTSE100:
mud <- mean(XFTSED)
sigmad <- apply(XFTSED,2,sd)
muw <- mean(XFTSEW)
sigmaw <- apply(XFTSEW,2,sd)
mum <- mean(XFTSEM)
sigmam <- apply(XFTSEM,2,sd)
median(XFTSED); max(XFTSED); min(XFTSED)
median(XFTSEW); max(XFTSEW); min(XFTSEW)
median(XFTSEM); max(XFTSEM); min(XFTSEM)
32. López Caballero Francisco
-26-
Gráfica de las simulaciones de movimientos brownianos geométricos con parámetros
estimados a partir de las muestras diaria y mensual:
set.seed(1000)
lsd0=log(as.numeric(FTSEd)[1]))
I <- rnorm(length(FTSEd)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,I)))
ssimul <- zoo(ssimul,index(FTSEd))
plot(ssimul,type="l",lty=1,xlab="",ylab="")
B <- rnorm(length(FTSEd)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,B)))
ssimull <- zoo(ssimul,index(FTSEd))
lines(ssimull,type="l",lty=3)
#Mensuales
set.seed(1000)
lsd0=log(as.numeric(FTSEm[1]))
I <- rnorm(length(FTSEm)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,I)))
ssimul <- zoo(ssimul,index(FTSEm))
plot(ssimul,type="l",lty=1,xlab="",ylab="")
B <- rnorm(length(FTSEm)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,B)))
ssimull <- zoo(ssimul,index(FTSEm))
lines(ssimull,type="l",lty=3)
Representación gráfica de los logreturns diarios del FTSE100 en escala logarítmica:
plot(XFTSED)
Cuantiles teóricos y empíricos de los logreturns del FTSE 100:
qnorm(p=c(0.01,0.02,0.98,0.99),mean=mud,sd=sigmad)
quantile(x=XFTSED,probs=c(0.01,0.02,0.98,0.99))
qnorm(p=c(0.01,0.025,0.975,0.99),mean=muw,sd=sigmaw)
quantile(x=XFTSEW,probs=c(0.01,0.02,0.98,0.99))
qnorm(p=c(0.01,0.02,0.98,0.99),mean=mum,sd=sigmam)
quantile(x=XFTSEM,probs=c(0.01,0.02,0.98,0.99))
Representación gráfica de curvas de densidad del FTSE100 y de la Normal con
parámetros diarios, semanales y mensuales del FTSE100. Y las mismas curvas en
escala logarítmica:
densityXFTSED<-density(XFTSED,n=500)
plot(densityXFTSED ,xlim=c(-0.08,0.08),type="l",lty=1,xlab="",ylab="",main="")
curve(dnorm(x,mean=mud,sd=sigmad),add=TRUE,xlim=c(-
0.06,0.06),n=500,type="l",lty=2,xlab="c(-0",ylab="",main="")
x <- seq(from=-0.06,to=0.06,length.out=500)
plot( densityXFTSED$x,
log(densityXFTSED$y),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.06,0.06),
ylim=c(-4,4))
y <- log( dnorm(x,mean=mud,sd=sigmad) )
lines(x,y,lty=2)
densityXFTSEW<-density(XFTSEW,n=500)
plot(densityXFTSEW ,type="l",lty=1,xlim=c(-0.15,0.15),xlab="",ylab="",main="")
33. TFG-ECO. Un análisis estadístico del FTSE 100
-27-
curve( dnorm(x,mean=muw,sd=sigmaw),add=TRUE,n=500,type="l",lty=2,xlab="c(-
0",ylab="",main="")
x <- seq(from=-0.15,to=0.15,length.out=500)
plot( densityXFTSEW$x,
log(densityXFTSEW$y),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.12,0.12),
ylim=c(-4,4))
y <- log( dnorm(x,mean=muw,sd=sigmaw) )
lines(x,y,lty=2)
densityXFTSEM<-density(XFTSEM,n=500)
plot(densityXFTSEM,type="l",lty=1,xlim=c(-0.15,0.15),xlab="",ylab="",main="")
curve( dnorm(x,mean=mum,sd=sigmam),add=TRUE,n=500,type="l",lty=2)
x <- seq(from=-0.25,to=0.25,length.out=500)
plot( densityXFTSEM$x, log(densityXFTSEM$y) ,
type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.21,0.18), ylim=c(-2,3))
y <- log( dnorm(x,mean=mum,sd=sigmam))
lines(x,y,lty=2)
Asimetría y curtosis de la muestra de los logreturns del FTSE100 y p-valores:
library(moments)
kurtosis(XFTSED);kurtosis(XFTSEW);kurtosis(XFTSEM)
skewness(XFTSED); skewness(XFTSEW);skewness(XFTSEM)
sk.d <- skewness(XFTSED); stat <- abs(sk.d/sqrt(6/length(XFTSED))); 2*(1-
pnorm(stat))
sk.w <- skewness(XFTSEW); stat <- abs(sk.w/sqrt(6/length(XFTSEW))); 2*(1-
pnorm(stat))
sk.m <- skewness(XFTSEM); stat <- abs(sk.d/sqrt(6/length(XFTSEM))); 2*(1-
pnorm(stat))
ku.d <- kurtosis(XFTSED)-3; stat <- abs(ku.d/sqrt(24/length(XFTSED))); 2*(1-
pnorm(stat))
ku.w <- kurtosis(XFTSEW)-3; stat <- abs(ku.w/sqrt(24/length(XFTSEW))); 2*(1-
pnorm(stat))
ku.m <- kurtosis(XFTSEM)-3; stat <- abs(ku.m/sqrt(24/length(XFTSEM))); 2*(1-
pnorm(stat))
Representación gráfica de ejemplos de densidades de NIG y densidades de la Normal
con parámetros estimados a partir de la NIG:
library(fBasics)
alphao=30; betao=0; muo=0; deltao=0.015
curve(dnig(x,alphao,betao,deltao,muo),xlim=c(-
0.075,0.075),n=500,type="l",lty=1,xlab="",ylab="",main="")
tempo=sqrt(alphao^2-betao^2)
meano <- muo +( (deltao*betao)/(tempo));
sigma2o= (deltao*(alphao^2))/(tempo^3); sigmao=sqrt(sigma2o);
curve(
dnorm(x,mean=meano,sd=sigmao),add=TRUE,n=500,type="l",lty=2,xlab="RETURNS"
,ylab="DENSITY",main="")
x<-seq(from=-0.09,to=0.09,length.out=500)
34. López Caballero Francisco
-28-
curve(log(dnig(x,alpha= alphao,beta= betao,delta= deltao,mu=
muo)),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.10,0.10), ylim=c(-2,4))
y<-log( dnorm(x,mean=meano,sd=sigmao))
lines(x,y,lty=2)
alphap=150; betap=0; mup=0; deltap=0.015
curve(dnig(x,alphap,betap,deltap,mup),xlim=c(-
0.04,0.04),n=500,type="l",lty=1,xlab="",ylab="",main="")
tempp=sqrt(alphap^2-betap^2)
meanp <- mup +( (deltap*betap)/(tempp));
sigma2p= (deltap*(alphap^2))/(tempp^3); sigmap=sqrt(sigma2p);
curve(
dnorm(x,mean=meanp,sd=sigmap),add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",m
ain="")
x2 <- seq(from=-0.15,to=0.15,length.out=500)
curve( log(dnig(x,alpha= alphap,beta= betap,delta= deltap,mu= mup)),
type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.15,0.15), ylim=c(-15,4))
y2 <- log( dnorm(x,mean=mup,sd=sigmap))
lines(x2,y2,lty=2)
alphaq=30; betaq=10; muq=0; deltaq=0.015
curve(dnig(x,alphaq,betaq,deltaq,muq),xlim=c(-
0.085,0.085),n=500,type="l",lty=1,xlab="",ylab="",main="")
tempq=sqrt(alphaq^2-betaq^2)
meanq <- muq +( (deltaq*betaq)/(tempq));
sigma2q= (deltaq*(alphaq^2))/(tempq^3); sigmaq=sqrt(sigma2q);
curve(dnorm(x,mean=meanq,sd=sigmaq),
add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",main="")
alphar=30; betar=-10; mur=0; deltar=0.015
curve(dnig(x,alphar,betar,deltar,mur),xlim=c(-0.085,0.085),
n=500,type="l",lty=1,xlab="",ylab="",main="")
tempr=sqrt(alphar^2-betar^2)
meanr <- mur +( (deltar*betar)/(tempr));
sigma2r= (deltar*(alphar^2))/(tempr^3); sigmar=sqrt(sigma2r);
curve(dnorm(x,mean=meanr,sd=sigmar),
add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",main="")
Estimación de los parámetros de la NIG por máxima verosimilitud para los intervalos
diarios, semanales y mensuales de la muestra del FTSE100:
NIGD <- nigFit(XFTSED,alpha=100,beta=-3,delta=0.01,mu=0.0001)
NIGW <- nigFit(XFTSEW,alpha=70,beta=-3,delta=0.03,mu=0)
NIGM <- nigFit(XFTSEM,alpha=70,beta=-26,delta=0.1,mu = 0)
alphadd<-57.055;betadd<--4.936;deltadd<-0.0087785;mudd<-0.00075506
temp=sqrt(alphadd^2-betadd^2)
mean <- mudd +( (deltadd*betadd)/(temp));
sigma2= (deltadd*(alphadd^2))/(temp^3); sigma=sqrt(sigma2);
alphaww<-40.19202;betaww<--7.77744;deltaww<-0.0232595;muww<-0.004638111
temp=sqrt(alphaww^2-betaww^2)
mean <- muww +( (deltaww*betaww)/(temp));
sigma2= (deltaww*(alphaww^2))/(temp^3); sigma=sqrt(sigma2);
alphamm<-50.63565;betamm<--24.457;deltamm<-0.0604569;mumm<-0.03379096
temp=sqrt(alphamm^2-betamm^2)
mean <- mumm +( (deltamm*betamm)/(temp));
sigma2= (deltamm*(alphamm^2))/(temp^3); sigma=sqrt(sigma2);
35. TFG-ECO. Un análisis estadístico del FTSE 100
-29-
Representación gráfica de las curvas de densidad del FTSE100, curvas de densidad
normal con parámetros del FTSE100 y curva de densidad NIG con parámetros
estimados a partir de la muestra:
densityXFTSED <- density(XFTSED,n=500)
plot(densityXFTSED, type="l",lty=1,xlab="",ylab="",main="",
xlim=c(-0.06,0.06))
curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500,
type="l",lty=2,xlab="",ylab="",main="")
alpha=alphadd;beta=betadd;delta=deltadd;
mu=mudd;
curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l",
lty=3,xlab="",ylab="",main="")
densityXFTSEW <- density(XFTSEW,n=500)
plot(densityXFTSEW, type="l",lty=1,xlab="",ylab="",main="",
xlim=c(-0.25,0.25))
curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500,
type="l",lty=2,xlab="",ylab="",main="")
alpha=alphaww;beta=betaww;delta=deltaww;
mu=muww;
curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l",
lty=3,xlab="",ylab="",main="")
densityXFTSEM <- density(XFTSEM,n=500)
plot(densityXFTSEM, type="l",lty=1,xlab="",ylab="",main="",
xlim=c(-0.01,0.01))
curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500,
type="l",lty=2,xlab="",ylab="",main="")
alpha=alphamm;beta=betamm;delta=deltamm;
mu=mumm;
curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l",
lty=3,xlab="",ylab="",main="")
Autocorrelaciones representadas sobre un eje vertical de 0 a 1, sobre un eje vertical
ajustado a máximos y a mínimos de las autocorrelaciones para los logreturns diarios
del FTSE100, los valores absolutos de estos logreturns y los logreturns diarios del
FTSE100 elevados al cuadrado con un retardo de 150:
library(FinTS)
AUTOCORRELACIOND <- Acf(as.numeric(XFTSED),
lag.max=150,type = "correlation",main="",ylim=c(0,1))
AUTOCORRELACIONDABS <- Acf(as.numeric(abs(XFTSED)),
lag.max=150,type = "correlation",main="",ylim=c(0,1))
AUTOCORRELACIONDC<- Acf(as.numeric(XFTSED^2),
lag.max=150,type = "correlation",main="",ylim=c(0,1))
AUTOCORRELACIOND <- Acf(as.numeric(XFTSED),
lag.max=150,type = "correlation",main="")
AUTOCORRELACIONDABS <- Acf(as.numeric(abs(XFTSED)),
lag.max=150,type="correlation",main="",)
AUTOCORRELACIONDC<- Acf(as.numeric(XFTSED^2),
lag.max=150,type="correlation",main="")
Test de normalidad Jarque-Bera y Kolmogorov-Smirnov (corrección de Lilliefors) para
los logreturns diarios, semanales y mensuales del FTSE100: