SlideShare una empresa de Scribd logo
FACULTAD DE CIENCIAS
ECONÓMICAS Y EMPRESARIALES
GRADO EN ECONOMÍA
Un análisis estadístico del FTSE 100
Trabajo Fin de Grado presentado por Francisco López Caballero, siendo el tutor del
mismo el profesor José Manuel Gavilán Ruiz
Vº. Bº. del Tutor Alumno/a:
D. José Manuel Gavilán Ruiz D. Francisco López Caballero
Sevilla. Junio de 2014
GRADO EN ECONOMÍA
FACULTAD DE CIENCIAS
ECONÓMICAS Y EMPRESARIALES
TRABAJO FIN DE GRADO
CURSO ACADÉMICO [2013-2014]
TÍTULO:
UN ANÁLISIS ESTADÍSTICO DEL FTSE 100
AUTOR:
FRANCISCO LÓPEZ CABALLERO
TUTOR:
D. JOSÉ MANUEL GAVILÁN RUIZ
DEPARTAMENTO:
DEPARTAMENTO DE ECONOMÍA APLICADA I
ÁREA DE CONOCIMIENTO:
ESTADÍSTICA
RESUMEN:
A lo largo de este trabajo, se analizan algunas de las premisas básicas que
establece el modelo de Black & Scholes para la evolución temporal de los precios
de un activo financiero, principalmente se analiza aquella premisa que establece
que las variaciones de los activos financieros entre intervalos de tiempo se ajustan
a una distribución normal y son independientes entre intervalos de tiempo que no se
solapan. Para ello se usan datos reales de cierre del índice FTSE 100, y como
herramienta de análisis, el software estadístico R.
PALABRAS CLAVE:
Modelo de Black & Scholes; distribución normal; FTSE 100; software R.
TFG-ECO. Un análisis estadístico del FTSE 100
-I-
ÍNDICE
1. INTRODUCCIÓN.....................................................................................................................................................................................................................1-2
2. EL FTSE 100....................................................................................................................................................................................................................................... 2
2.1. COMPOSICIÓN Y PONDERACIÓN POR SECTORES...................................................................... 3
3. EL MODELO DE B&S............................................................................................................................................................................................................. 4
3.1. EL MOVIMIENTO BROWNIANO......................................................................................................................................... 5
3.2. HISTORIA, ORIGEN Y AUTORES................................................................................................................................... 6
3.3. MARCO TEÓRICO.................................................................................................................................................................................. 6
3.4. SIMULACIÓN DEL MOVIMIENTO BROWNIANO....................................................................................... 7
4. DATOS EMPÍRICOS DEL FTSE 100..................................................................................................................................................... 8-10
5. AGREGACIÓN GAUSSIANA................................................................................................................................................................................... 10
5.1. TEST DE NORMALIDAD............................................................................................................................................................ 11
5.1.1. Contraste de Kolmogorov-Smirnov............................................................................................................... 11
5.2. COMPARACIÓN GRÁFICA DE DENSIDADES................................................................................................... 12
5.2.1. Colas pesadas y medidas de forma............................................................................................................. 12
5.3. VALUE AT RISK................................................................................................................................................................................................ 13
5.4. DENSIDADES EN ESCALA LOGARÍTMICA............................................................................................................ 13
5.5. TEST JARQUE-BERA: MEDIDAS DE FORMA.......................................................................................... 13-14
5.5.1. Asimetría.................................................................................................................................................................................... 14
5.5.2. Curtosis o apuntamiento............................................................................................................................ 14-15
5.5.3. Test Jarque-Bera........................................................................................................................................................... 15
6. LA DISTRIBUCIÓN NORMAL INVERSA GAUSSIANA............................................................................................ 15-17
6.1. ESTIMACIÓN DE LOS PARÁMETROS DE LA NIG...................................................................................... 18
7. UNA ALTERNATIVA AL MODELO DE B&S....................................................................................................................................... 19
8. AUTOCORRELACIONES................................................................................................................................................................................... 19-21
9. CONCLUSIONES..................................................................................................................................................................................................................... 22
10. BIBLIOGRAFÍA......................................................................................................................................................................................................................... 23
11. ANEXO....................................................................................................................................................................................................................................... 24-27
TFG-ECO. Un análisis estadístico del FTSE 100
-1-
1. INTRODUCCIÓN
El relativamente reciente desarrollo de los mercados financieros, unido al afán del ser
humano por predecir el futuro, ha llevado asociado el desarrollo de modelos de
predicción, basados en técnicas estadísticas y actuariales que tratan de anticipar los
acontecimientos futuros al momento presente con el fin de anticipar cambios
inesperados y posicionarse estratégicamente de la forma más óptima posible
minimizando por ejemplo los efectos de una crisis financiera. Conociendo a través de
estos modelos los posibles riesgos asociados a cualquier producto financiero,
podríamos predecir un gran cambio en el mercado, lo que nos permitiría estar
“cubiertos” y reducir así los efectos que las crisis financieras provocan en la economía
real.
En el ámbito de este trabajo estudiaremos un modelo introducido en 1973,
conocido como el modelo Black & Scholes para la valoración de opciones financieras,
el cual en aplicaciones posteriores se extendió a otros productos financieros, por su
utilidad tanto para especular con las fluctuaciones precio de los activos, como para
llevar a cabo estrategias de cobertura financiera.
En este trabajo se analizan todas las premisas básicas de este modelo, y con el
uso de algunas técnicas cuantitativas se mide con qué grado de exactitud este modelo
es capaz de modelizar las variaciones de un índice bursátil real, el FTSE100 o
Financial Times Stock Exchange, de la bolsa de valores de Londres. Además, se
compara este con otro modelo, la NIG (Normal inversa gaussiana) el cual, modeliza
mejor las variaciones del mencionado índice.
Para ello, se utiliza como herramienta el software estadístico-R se estiman todos
los parámetros de ambos modelos utilizando las series de datos de los logaritmos de
los retornos (En adelante, logreturns) de cierre del mencionado índice. Además se
simula el movimiento browniano estándar, premisa básica del Black Scholes, y se
representan gráficamente las densidades de la muestra, densidad de la normal y la
normal inversa gaussiana con los parámetros estimados, llevamos a cabo un test de
normalidad, se analiza el valor en riesgo y las autocorrelaciones.
La organización del trabajo, se ajusta de manera lógica a un estudio de estas
características, es decir, una pequeña introducción ocupa la sección 1. La sección 2
contiene un análisis característico, estructural e histórico de nuestro índice. En la
sección 3, explicamos el modelo Black & Scholes estudiando su principal premisa
matemática, el movimiento browniano definiendo su marco histórico y teórico,
realizando finalmente varias simulaciones del mismo. En la sección 4, se realiza un
test de normalidad, y además de una comparativa gráfica de las curvas de densidad
teóricas, y las observadas empíricamente con objeto de medir el grado de ajuste, y de
corroborar si existe el fenómeno de la agregación gaussiana. En la sección 5
realizamos un análisis de asimetría y curtosis, consonante con el objetivo de descartar
la normalidad como proceso para modelizar las variaciones de los precios de los
activos en los mercados financieros.
En base al análisis anterior, en las secciones 6 y 7 proponemos como alternativa la
distribución normal inversa gaussiana, que al tener parámetros de asimetría y curtosis,
es más flexible para modelar la distribución de las variaciones de los logreturns del
FTSE100.
En la sección 8, se utiliza el análisis de autocorrelaciones de los logreturns del
FTSE100, para ver si lo observado es compatible con la independencia entre
variaciones que caracteriza implícitamente al modelo de Black & Scholes. Por último,
López Caballero Francisco
-2-
en la sección 9 se presentan una serie de conclusiones en base al análisis realizado y
se añade en un apéndice el código utilizado en el software que nos ha servido tanto
para la obtención de datos, como para la realización de su análisis estadístico.
2. El FTSE100
FTSE 100 (Financial Times Stock Exchange) o, de manera informal, "Footsie", es
como se denomina al índice agregado que engloba las acciones de las 100 empresas
con mayor capitalización del Reino Unido (FTSE.com) constituyendo el índice
principal o de referencia del mercado de valores británico así como S&P 500 lo es en
EEUU, el DAX 100 en Alemania o el IBEX 35 en España.
Éste da cuenta de la capitalización flotante ponderada de los 100 activos británicos
más líquidos y con mayor capitalización, cotizados en la Bolsa de Londres. La fórmula
que determina su composición es una media aritmética ponderada a la que se añade
un factor de capitalización flotante o free-float que determina el porcentaje de acciones
que realmente se están negociando en el mercado bursátil.
Además de ser el índice más representativo de la economía británica así como de
su salud financiera y económica, la importante posición del mercado de valores
británico lo convierte en uno de los índices más utilizados y seguidos por los agentes
del mercado, por ejemplo como un indicador de la prosperidad de los negocios para
las empresas reguladas por el Derecho de sociedades del Reino Unido. Para ello,
podemos constatar que las sociedades que en él están representadas corresponden a
más del 80% de la capitalización bursátil total de la Bolsa de Londres.
El índice se mantiene por el Grupo FTSE, una compañía líder global en indexación
perteneciente al London Stock Exchange Group. Este índice se calcula en tiempo real
y se publica cada 15 segundos, es decir, cotiza en el Mercado continuo entre las horas
de apertura y de cierre del mercado 8:00 A.M y 16:30 P.M respectivamente. Los
valores de cierre se toman a las 16:35. (FTSE.com)
Es importante tener en cuenta que la composición de este índice bursátil se revisa
cada trimestre. La última revisión disponible es de Marzo de 2014. Cuando una
sociedad cotizada sale de este índice, generalmente es reemplazada por una sociedad
cotizada en el FTSE 250, el cual muestra la misma información pero para los 250
valores más líquidos y con mayor capitalización. A veces sucede el hecho de que el
número de títulos cotizados es superior a 100, en particular, cuando las sociedades
emiten varios títulos diferentes (Royal Dutch Shell).
En lo que respecta al análisis histórico de las cotizaciones del FTSE 100 podemos
obtener diversas indicaciones en cuanto la forma en que reacciona frente a distintas
situaciones económicas y a las crisis. Comenzó su andadura el 3 de Enero de 1984
con una cotización de 1000 puntos de base, alcanzando en el año 1999 su más alto
umbral histórico en 6950 puntos. A continuación, descendió terminando a 6730 puntos
básicos en 2007.Este índice, sufrió durante la crisis las sub-primes y descendió hacia
los 5495 puntos. La posterior crisis económica llevará este índice cerca de los niveles
históricos más bajos registrados unos 3500 puntos aproximadamente en el año 2009
seguidas de una serie de reactivaciones hasta el nivel de los 5500 puntos en 2010.
Desde el año 2010, el FTSE 100 tiende más bien a evolucionar al alza. En efecto, se
pudo constatar una fuerte tendencia alcista en julio de 2010 que permitió superar el
umbral de 6000 puntos. En 2011, este índice se estabilizó en 5800 puntos
aproximadamente. Más recientemente, superó la barrera de los 6000 puntos a
principios de 2013 para avanzar en dientes de sierra hasta los 6400 puntos
aproximadamente en el mes de Marzo de 2014.
TFG-ECO. Un análisis estadístico del FTSE 100
-3-
2.1. Composición del FTSE 100 y ponderaciones por sectores económicos:
En la tabla 1, se muestran, los constituyentes del FTSE 100, así como su ponderación
en el índice y el sector productivo al que pertenecen. Los datos se han extraido de la
página web del grupo FTSE y se corresponden al mes de Mayo de 2014:
Constituent name Index
Weight (%)
ICB
Supersector
Description
Constituent
name
Index Weight
(%)
ICB
Supersector
Description
BG Group 2,30 Oil & Gas Kingfisher 0,60 Retail
BP 5,35 Oil & Gas Marks & Spencer
Group
0,44 Retail
Petrofac 0,22 Oil & Gas Morrison (Wm)
Supermarkets
0,28 Retail
Royal Dutch Shell A 5,11 Oil & Gas Next 0,59 Retail
Royal Dutch Shell B 3,46 Oil & Gas Sainsbury (J) 0,27 Retail
Tullow Oil 0,41 Oil & Gas Sports Direct
International
0,11 Retail
Johnson Matthey 0,40 Chemicals Tesco 1,43 Retail
Anglo American 1,20 Basic Resources British Sky
Broadcasting Group
0,53 Media
Antofagasta 0,18 Basic Resources ITV 0,43 Media
BHP Billiton 2,35 Basic Resources Pearson 0,52 Media
Fresnillo 0,09 Basic Resources Reed Elsevier 0,65 Media
Glencore Xstrata 1,79 Basic Resources WPP 1,01 Media
Mondi 0,23 Basic Resources Carnival 0,25 Travel & Leisure
Randgold Resources 0,25 Basic Resources Compass Group 0,99 Travel & Leisure
Rio Tinto 2,51 Basic Resources Easyjet 0,26 Travel & Leisure
CRH 0,73 Construction &
Materials
InterContinental
Hotels Group
0,30 Travel & Leisure
Aggreko 0,23 Industrial Goods
& Services
International
Consolidated Airlines
Group
0,51 Travel & Leisure
Ashtead Group 0,29 Industrial Goods
& Services
TUI Travel 0,13 Travel & Leisure
Babcock International Group 0,29 Industrial Goods
& Services
Whitbread 0,45 Travel & Leisure
BAE Systems 0,80 Industrial Goods
& Services
William Hill 0,18 Travel & Leisure
Bunzl 0,32 Industrial Goods
& Services
BT Group 1,80 Telecommunicati
ons
Capita 0,44 Industrial Goods
& Services
Vodafone Group 3,53 Telecommunicati
ons
Experian 0,66 Industrial Goods
& Services
Centrica 1,01 Utilities
G4S 0,23 Industrial Goods
& Services
National Grid 1,85 Utilities
IMI 0,24 Industrial Goods
& Services
Severn Trent 0,26 Utilities
Intertek Group 0,30 Industrial Goods
& Services
SSE 0,85 Utilities
Meggitt 0,23 Industrial Goods
& Services
United Utilities
Group
0,32 Utilities
Melrose Industries 0,19 Industrial Goods
& Services
Barclays 2,26 Banks
Rexam 0,23 Industrial Goods
& Services
HSBC Hldgs 6,90 Banks
Rolls-Royce Holdings 1,21 Industrial Goods
& Services
Lloyds Banking
Group
2,18 Banks
Royal Mail 0,21 Industrial Goods
& Services
Royal Bank Of
Scotland Group
0,39 Banks
Smiths Group 0,30 Industrial Goods
& Services
Standard
Chartered
1,50 Banks
Travis Perkins 0,28 Industrial Goods
& Services
Admiral Group 0,17 Insurance
Weir Group 0,33 Industrial Goods
& Services
Aviva 0,85 Insurance
Wolseley 0,54 Industrial Goods
& Services
Legal & General
Group
0,72 Insurance
GKN 0,38 Automobiles &
Parts
Old Mutual 0,59 Insurance
Associated British Foods 0,58 Food &
Beverage
Prudential 1,95 Insurance
Coca-Cola HBC AG 0,18 Food &
Beverage
Resolution 0,25 Insurance
Diageo 2,83 Food &
Beverage
RSA Insurance
Group
0,27 Insurance
SABMiller 1,71 Food &
Beverage
St.James Place 0,25 Insurance
Unilever 1,86 Food &
Beverage
Standard Life 0,54 Insurance
Barratt Developments 0,24 Personal &
Household Goods
British Land Co 0,39 Real Estate
British American Tobacco 3,80 Personal &
Household Goods
Hammerson 0,24 Real Estate
Burberry Group 0,37 Personal &
Household Goods
Land Securities
Group
0,48 Real Estate
Imperial Tobacco Group 1,41 Personal &
Household Goods
Aberdeen Asset
Management
0,22 Financial
Services
Persimmon 0,25 Personal &
Household Goods
Hargreaves
Lansdown
0,19 Financial
Services
Reckitt Benckiser Group 1,90 Personal &
Household Goods
London Stock
Exchange Group
0,21 Financial
Services
López Caballero Francisco
-4-
AstraZeneca 2,92 Health Care Schroders 0,18 Financial
Services
GlaxoSmithKline 4,67 Health Care ARM Holdings 0,84 Technology
Shire 1,04 Health Care Sage Group 0,28 Technology
Smith & Nephew 0,49 Health Care
Tabla 1. Composición del FTSE100 y ponderación por sectores económicos.
Fuente: FTSE.com, Mayo 2014
3. El MODELO BLACK & SCHOLES
En consonancia con fuerte desarrollo vivido por los mercados financieros durante los
últimos 20-30 años y la consecuente ganancia de importancia relativa de la industria
financiera en los mercados mundiales, han ido apareciendo a lo largo de estos años
métodos de valoración de productos financieros los cuales apoyándose en la
aplicación de métodos matemáticos y estadísticos, han tenido como objetivo el de
realizar valoraciones correctas y fiables de los distintos productos financieros que han
ganado en grado de complejidad y diversidad. Estos productos pueden ser valores,
bonos, divisas y derivados, como las opciones.
Este enfoque basado en la utilización de herramientas estadísticas y matemáticas
tiene su origen en la publicación de la fórmula Black-Scholes en 1973 para el cálculo
de opciones europeas. Esta publicación fue realizada Robert C. Merton el cual se
había ayudado para ello de los modelos estocásticos desarrollados por Fischer Black
y Myron Scholes, haciendo referencia a un modelo matemático que fue empleado para
estimar el valor actual de opciones europeas para la compra o venta de acciones en
una fecha futura.
Fue tal la repercusión de esta fórmula que en 1997, Merton y Scholes recibieron el
premio Nobel de economía. En su origen, como ya hemos mencionado estaba ideado
para la valoración de opciones de tipo europeo, en las cuales la ejecución legal del
contrato se produce en el momento del vencimiento. Debemos apuntar que estas
opciones son instrumentos en los cuales se atribuye a la parte compradora el derecho
de comprar o vender en el futuro un determinado activo al precio acordado en el
contrato o “strike-price” y a la contraparte la obligación de vender o comprar dicho
activo en la fecha de vencimiento. Sin embargo, más adelante se amplió para
opciones americanas y mercado monetario.
En este contexto, Scholes y Merton fundaron el fondo de inversión Long Term
Capital Portfolio L.P. que se incluyó en el fondo especulativo Long Term Capital
Management fundado por John Meriwether en 1994, usando su fórmula para el cálculo
de opciones y otros productos derivados. En sus inicios el fondo proporcionó una
rentabilidad neta del 40 por ciento a sus inversores pero en 1998 perdió 4600 millones
de dólares en cuatro meses durante la crisis del rublo ruso y la crisis financiera
asiática. Esto hizo que el fondo tuviese que ser rescatado por otras instituciones
financieras bajo la supervisión de la reserva federal y que finalmente fue cerrado en el
año 2000 (Greenspan, 2007).
El componente probabilístico de este modelo se basa en la distribución teórica de
las variaciones de la cotización del activo subyacente entre periodos de tiempo. La
distribución teórica utiliza el supuesto sobre el modelo que sigue la distribución de las
variaciones de las cotizaciones. Dicho modelo, se denomina movimiento browniano, el
cual está basado en la distribución normal. La fórmula de Black & Scholes para
opciones de compra (call) y de venta (put) es la siguiente:
Call: SN (d1) – Ke-rTN (d2) Put: - SN (-d1) +Ke-rTN (-d2)
Donde d1 y d2 son calculadas como:
TFG-ECO. Un análisis estadístico del FTSE 100
-5-
d1:
( ) ( )
d2:
Siendo S el precio del activo subyacente en el momento de valoración, K es el
“strike Price” de la opción, es decir, el precio pactado para la compra-venta del
subyacente en el momento de vencimiento del contrato, σ representa la volatilidad o
desviación típica, r es la tasa de interés libre de riesgo (interés de bonos de estados,
depósitos bancarios, etc.), T es el tiempo desde el momento de la valoración hasta el
vencimiento del contrato y N es la función de distribución de un variable aleatoria
normal estándar. En torno a N desarrollaremos este trabajo, ya que es la variable que
aporta al modelo estudiado la definición matemática de las probabilidades de las
variaciones de la cotización.
El funcionamiento del modelo es el siguiente, realiza una proyección del precio del
activo subyacente del contrato ajustada a la distribución normal considerando la tasa
de interés de libre riesgo y la volatilidad implícita. Esto permite definir la cotas máximas
y mínimas esperadas de las variaciones del subyacente, el valor de la opción según se
trate de una call o put dependerá de la diferencia entre algunas de estas cotas y el
strike (Knopp, 2005).
Como requerimos de un modelo que represente estadísticamente el valor S (T) del
subyacente en el periodo T, debemos utilizar un modelo dinámico para el precio S (t)
del subyacente para todos los momentos t ocurridos antes del vencimiento T. El
modelo dinámico que introduce la fórmula de Black-Scholes es el movimiento
browniano geométrico, o proceso log-normal (Martinez y García, 2003).
En definitiva, el modelo Black & Scholes tiene como premisas básicas las
siguientes:
 Las cotizaciones fluctúan de la misma forma que un movimiento browniano
geométrico.
 Los mercados de acciones, bonos opciones y cualquier otro tipo de producto
financiero susceptible de ser valorado funcionan sin costes de transacción,
márgenes de seguridad o impuestos.
 Los valores que se negocian son infinitamente divisibles y se puede operar en
cualquier momento, es decir, los mercados siempre están abiertos.
 El tipo de interés sin riesgo es conocido y constante a lo largo del tiempo.
 Los inversores pueden prestar y endeudarse al tipo de interés sin riesgo.
 No existe limitación para las ventas al descubierto. Los vendedores al
descubierto pueden disponer plenamente de los ingresos de tales ventas y no
están obligados a efectuar ningún depósito en garantía.
 La opción es de tipo europeo, solo se puede ejercer en el vencimiento.
 La acción subyacente no paga dividendos antes de la fecha de vencimiento de
la opción.
3.1.El movimiento browniano
Es la más importante de todas las premisas del modelo de Black & Scholes ya que
considera que la evolución de la cotización de un activo financiero se asemeja a la del
movimiento browniano geométrico, por tanto es la que aporta la definición
matemática al modelo, la cual es imprescindible para su formulación. La contrastación
de esta premisa básica forma parte muy importante en el desarrollo de nuestro trabajo.
Para analizar si este modelo es un modelo correcto para la valoración de
productos financieros vamos a contrastar algunos de los supuestos teóricos que
establece el modelo con la experiencia empírica basándonos en los datos reales de
López Caballero Francisco
-6-
los mercados financieros. Para ello, se realiza un análisis y posteriormente una
comparación entre el comportamiento teórico y los datos empíricos observados, es
decir, las cotizaciones reales dadas por de cierre diario, semanal y mensual del índice
FTSE 100.
3.2.Historia: Origen y autores
El movimiento browniano tiene su origen en Inglaterra alrededor de 1827 cuando el
médico y botánico escocés Robert Brown (1773-1858) se encontraba realizando
investigaciones examinando con el microscopio minúsculas partículas de polen(Brown
1828). Mediante la observación de estas partículas suspendidas en agua y diferentes
líquidos comprobó que se desplazaban ininterrumpidamente sin seguir un patrón
determinado impulsadas por las continuas colisiones con moléculas colindantes. Sin
embargo, no fue hasta 1900 cuando Louis Bachellier para modelizar las fluctuaciones
de las acciones de la bolsa de París convirtiéndose en el primer precedente de la
aplicación de este modelo al campo de las finanzas en su trabajo Théorie de la
Spéculacation (Davis y Etheridge, 2006). A partir de ese momento, el fenómeno del
movimiento browniano motivó el interés de numerosos científicos de primer nivel como
Albert Einstein en 1905, Norbert Wiener 1923, Paul Lévy 1939 o Samuelson en 1965
aplicándolos a una multitud de disciplinas.
Lo más significativo en relación con el desarrollo de este trabajo es que, desde las
primeras investigaciones sobre mercados financieros se han tomado las
características del movimiento browniano como similares a las de las cotizaciones de
los mercados financieros (Venegas, 2008).
3.3.Marco teórico: características y modelos matemáticos
Un proceso estocástico es una familia de variables aleatorias parametrizadas por el
tiempo t, es decir, para cada t dado, X(t) es una variable aleatoria. El movimiento
browniano B(t) es un proceso estocástico que comienza en el origen, es decir, B(0)= 0,
y que satisface las siguientes propiedades:
 Incrementos independientes: la variable aleatoria B(t)-B(s) es independiente de
variable aleatoria B(u)-B(v) cuando t > s ≥ u > v ≥ 0.
 Incrementos estacionarios: la distribución de B(t)-B(s) para t > s ≥ 0 es sólo una
función de (t-s), y no de t y s por separado.
 Incrementos normales: la distribución de B(t)-B(s) para t > s ≥ 0 es normal con
esperanza 0 y varianza t-s.
La propiedad 3 implica la propiedad 2, por lo que la propiedad 2 es superflua. Sin
embargo, si tenemos en cuenta un proceso estocástico L(t) que satisface sólo las dos
primeras propiedades, L(t) sería un proceso de Lévy. Por lo tanto, vemos que el
movimiento browniano es un caso particular de un proceso de Lévy ( Benth, 2004).
A partir de la definición de un movimiento browniano, vemos que B(t) es una
variable aleatoria para cada tiempo t. Pero, por otra parte, para cada resultado ω del
espacio muestral Ω, tenemos una función del tiempo, B (t, ω). Esta función se conoce
como la trayectoria del movimiento browniano. Para cada resultado ω tenemos un
camino o trayectoria, que llamamos un camino muestral.
Sin embargo, aunque movimiento browniano presenta características muy
cercanas a las de las cotizaciones de los activos financieros, es incapaz de
representar correctamente el comportamiento de todas las variables que influyen en la
variabilidad de los precios. Esto supone un primer argumento para realizar una crítica
al modelo Black & Scholes, ya que el movimiento browniano forma parte del núcleo de
éste y de otros modelos financieros y económicos.
TFG-ECO. Un análisis estadístico del FTSE 100
-7-
3.4.Simulación del movimiento browniano.
Utilizando como herramienta el software estadístico R se simulará un movimiento
browniano estándar para observar que se parece a las variaciones en las cotizaciones
de los mercados financieros.
Para ello generamos una muestra aleatoria de distribución N (0,1) que simula las
variaciones entre periodos de un hipotético índice, en escala logarítmica, a los cuales
llamaremos logreturns. La cotización en los periodos se calcula como la suma
acumulada de los logreturns, por tanto la gráfica resultante aún está representada en
escala logarítmica de tratarse de un mercado financiero real.
La razón fundamental para introducir los logreturns es disponer de la propiedad de
aditividad, lo cual permite realizar la suma acumulada de toda la serie de datos, de
haber sido en rendimientos simples (tasas de variación), no podríamos haber realizado
la representación mediante suma acumulada. El argumento matemático en que nos
basamos es el siguiente: el valor de la tasa de variación de un periodo a otro de una
serie se aproxima al valor de la variación de un periodo a otro de la misma serie en
escala logarítmica (logaritmo natural):
( )
Donde es el valor de la cotización del índice en el momento i, y debe cumplirse
que .
En la figura 1, podemos observar las gráficas de los movimientos brownianos
generados, con los periodos representados en el eje horizontal y las cotizaciones en el
eje vertical. A golpe de vista podemos comprobar que estos movimientos simulados se
asemejan a las oscilaciones de los valores de cualquier mercado financiero real.
Figura 1. Tres trayectorias del movimiento browniano estándar, el el eje horizontal
viene representado el tiempo, en el vertical, las cotizaciones.
0 100 200 300 400 500
-30-20-100102030
López Caballero Francisco
-8-
4. DATOS EMPÍRICOS DEL FTSE 100
En esta sección y las sucesivas se usan los datos empíricos del índice FTSE100
(Financial Times Stock Exchange) del mercado de valores de Reino Unido recogidos
desde el 1 de Enero del año 2000 hasta el 31 de Diciembre año 2013. Las
cotizaciones se refieren a precios de cierre en el día, semana o mes obtenidos a
través de la página web www.finance.yahoo.com. Las cotizaciones aparecen
expresadas en puntos básicos.
En la figura 2, se han representado los datos de cierre diarios del FTSE 100 desde
el 01/01/2000, hasta el 31/12/2013 podemos apreciar que el movimiento browniano
representado en la Figura 1 se asemeja a las variaciones de los precios de los
mercados financieros y de sus índices agregados. En el eje horizontal está
representado el tiempo y en el eje vertical, las cotizaciones:
Figura 2. Gráfico cotización diaria del FTSE 100, datos diarios al cierre. Fuente:
FTSE.com. Datos del 01/01/2000 a 31/12/2013.
Seguidamente, se han estimado los parámetros de la distribución Normal µ y como
la media y la desviación típica de la muestra, estos vienen adjuntos en la siguiente
tabla:
Media D.Típica C.V. Me Máx Min
Diario -0.00000072 0.01247 0 0.0938 -0.0926
Semanal 0.0000505 0.02568 0.0018 0.1258 -0.2363
Mensual 0.0004423 0.04186 0.007 0.0829 -0.1395
Tabla 2: Media, desviación típica, coeficiente de variación, Mediana, Máximo y
Mínimo obtenidos a partir de los logreturns del FTSE100.Fuente: FTSE.com. Datos de
la serie diaria, semanal y mensual de 1/1/2000 a 31/12/2013
2000 2005 2010
4000500060007000
TFG-ECO. Un análisis estadístico del FTSE 100
-9-
Si observamos el coeficiente de variación, una medida de dispersión relativa, medida
como el cociente entre la desviación típica y la media aritmética del conjunto de datos,
nos muestra que la volatilidad es menor cuanto mayor son los intervalos temporales t
de la muestra
Llegados a este punto, se puede establecer que las cotizaciones de un mercado
no son recogidas de forma adecuada por el movimiento browniano, en principio, los
precios no parten de cero, además las desviaciones típicas no tienen por qué ser
proporcionales al tiempo.
El movimiento browniano geométrico se obtiene a partir de una transformación
a exponencial de este mismo movimiento estándar. Su expresión matemática es la
siguiente:
Donde μ es la variación media de la cotización del subyacente (parámetro de
tendencia) y σ su desviación típica (parámetro de volatilidad), S(0) es el precio inicial
conocido de la cotización y B(t) es el movimiento browniano estándar ( Benth, 2004).
Por tanto, el cociente entre dos periodos será calculado como:
Para la elaboración de la figura 3, se ha generado una muestra de valores
aleatorios de datos para una distribución normal con parámetros estimados a través de
nuestra muestra de cierres en periodos de un día y un mes del FTSE100. Se ha
llamado S0 a la cotización del primer instante temporal de cada muestra y se ha
realizado sobre esa cotización la suma acumulada de los valores aleatorios, por último
hemos cambiado la escala y la hemos hecho exponencial a la suma acumulada de
dichos valores.
López Caballero Francisco
-10-
Figura 3: movimiento browniano generado a partir de datos de cierre
diarios(superior) y mensuales (inferior) del FTSE 100 con datos del 01/01/2000 al
31/12/2013
5. AGREGACIÓN GAUSSIANA
A través de la observación de la naturaleza, se ha constatado que existen multitud de
variables asociadas a fenómenos naturales que siguen una distribución Normal, como
puede ser la estatura, el coeficiente intelectual, etc. Según el Teorema Central del
Límite (García Barbancho,1992) cualquier media tipificada con n suficientemente
grande se aproxima a la distribución Normal estándar N(0,1). Comúnmente se acepta
que para n mayor o igual que 30 el parecido entre las funciones de distribución de
cualquier media tipificada y la distribución Normal estándar N(0,1) es bastante
apreciable.
La Agregación Gaussiana es un fenómeno según el cual la densidad de una
variable empírica tiende a converger a la de una distribución Normal a medida que se
van ampliando los intervalos de tiempo entre observaciones y por tanto sus funciones
de densidad se parecen más. En este apartado se analiza qué grado de ajuste hacia la
distribución Normal tiene la muestra empírica del FTSE100 y también si ocurre el
2000 2005 2010
4000500060007000
2000 2005 2010
5600580060006200640066006800
TFG-ECO. Un análisis estadístico del FTSE 100
-11-
fenómeno de la Agregación Gaussiana a través un contraste de hipótesis y la
representación gráfica de las densidades empíricas y teóricas normales.
En lo relativo a la agregación Gaussiana, se ha de tener presente que debido a la
propiedad aditiva que proporciona la escala logarítmica a las variaciones entre
periodos (logreturns), el valor de la variable en un determinado intervalo puede
obtenerse como la suma de los valores de la variable en cada intervalo en los que la
primera se divide, por ejemplo, para el dato semanal:
∑
Y para el mensual:
∑
5.1. TEST DE NORMALIDAD
Los test de normalidad son contrastes de hipótesis en los que la hipótesis nula (H0) es
que la distribución que ha generado la muestra se ajusta a la de una distribución
Normal, y la hipótesis alternativa (H1) es que la distribución no se ajusta a una
distribución Normal. Para considerar como válida la hipótesis nula es necesario que
los parámetros calculados tomen unos valores determinados según el tipo de prueba o
test de normalidad.
5.1.1. Contraste de Kolmogórov-Smirnov (Corrección de Lilliefors)
El contraste de Kolmogorov-Smirnov compara los valores de una distribución empírica
con los que se derivarían de la distribución supuesta como hipótesis nula. La
corrección de Lilliefors es una mejora introducida para el caso de la distribución
Normal.
Por tanto, la hipótesis nula es que la distribución de los log-returns del FTSE100
sea Normal (H0= La distribución de la muestra es normal).El estadístico de
Kolmogorov-Smirnov se basa en la máxima distancia observada entre ambas
funciones de distribución teórica y observada y es denominado como D (Ruppert,
2004), el valor hasta donde se debe bajar el nivel de significatividad para no tener que
rechazar H0 viene determinado por el p-valor, de forma típica y para cualquier test el p-
valor tiene que ser menor o igual que 0,05 para que la hipótesis nula sea rechazada al
nivel de significatividad generalmente aceptado del 5% (Lillefors, 1967):
Donde es el i-ésimo valor observado en la muestra (cuyos valores se han
ordenado de menor a mayor), es un estimador de probabilidad de observar
valores menores o iguales que y es la probabilidad de observar valores menores
o iguales que en una distribución Normal con media y desviación típica estimada a
partir de la muestra.
D p-valor
Diario 0.9778 2.2e-16
Semanal 0.9661 2.2e-16
Mensual 0.8808 2.2e-16
Tabla 3: contraste de Kolmogorov-Smirnov y respectivos p-valores.
López Caballero Francisco
-12-
La interpretación de estos resultados es la siguiente. Cuanto más se aproxime D
a 0 mayor será el grado de ajuste de normalidad de la muestra y viceversa. El valor
de los estadísticos y de los p-valores que podemos ver no cumplen los requisitos
que permitan dar por válida H0 al 5% de significatividad, por lo tanto, podemos decir
que basándonos en esta prueba, los logreturns del FTSE 100 no se ajustan a la
distribución normal en ninguna de las muestras con distintos intervalos de tiempo.
Sin embargo, podemos observar en cierta medida el fenómeno de la agregación
gaussiana, ya que a medida que ampliamos los intervalos de tiempo, se va
produciendo un mayor grado de ajuste a la distribución Normal, El estadístico D se
acerca más a 0.
5.2. COMPARACIÓN GRÁFICA DE DENSIDADES
En este apartado se realiza una comparación a través de las gráficas de la función de
densidad teórica normal con parámetros estimados a partir de la muestra de logreturns
del FTSE100 bajo los supuestos del modelo de Black & Scholes (línea discontinua) y
la densidad empírica observada (línea continua) para las series temporales diaria,
semanal y mensual respectivamente. En esta representación gráfica se observa, al
igual que en el contraste anterior, el efecto de la agregación Gaussiana, ya que cuanto
mayor son los intervalos de tiempo entre observaciones, más se parecen las dos
curvas representadas.
Este fenómeno se hace patente en la progresiva convergencia de los máximos
máximos de las curvas de densidad empírica y teórica, esto es, disminución progresiva
del exceso de curtosis de la densidad empírica.
Figura 4. Densidades teóricas normales (línea discontinua) y empíricas (línea
continua) del FTSE 100 (de izquierda a derecha) diarias, semanales y mensuales.
5.2.1. Colas pesadas y medidas de forma
Como podemos ver, es fácil criticar la distribución normal de los logreturns, ya que
subestima la probabilidad de sucesos extremos, en este caso las variaciones de gran
tamaño en el índice estudiado, es decir infravalora los valores de la variable en las
colas de la función de densidad. Para analizar, el error cometido por la normal en el
peso de las colas utilizaremos el Valor en Riesgo (Value at risk), posteriormente las
medidas de formas asimetría y curtosis y finalmente representaremos las curvas de
densidad de la figura anterior en escala logarítmica para observar mejor las colas.
5.3. VALUE AT RISK
Este es un método muy utilizado en el campo de las finanzas y seguros. Se trata de un
valor extremo que en caso de ser alcanzado o superado generaría importantes
pérdidas para el agente económico afectado, para un determinado horizonte de tiempo
en circunstancias normales de mercado. (Venegas , 2008).
-0.05 0.00 0.05
01020304050
-0.15 -0.10 -0.05 0.00 0.05 0.10 0.15
05101520
-0.15 -0.10 -0.05 0.00 0.05 0.10 0.15
0246810
TFG-ECO. Un análisis estadístico del FTSE 100
-13-
Este método también utiliza como premisa que las variaciones entre periodos se
ajustan a una distribución normal, es por eso que vamos a aplicarlo en las
distribuciones teóricas y empíricas para comprobar en qué grado la distribución normal
subestima la probabilidad de sucesos extremos. Para ello calculamos los percentiles
de orden 1%,2%,98% y 99%, los cuales se encuentran en mejor posición para reflejar
las colas. Los resultados de este método se adjuntan en la tabla 4:
Percentil Empírico Teórico
0.01 -0.03598001 -0.02903750
0.02 -0.02804833 -0.02563577
0.98 0.02669749 0.02562126
0.99 0.03266433 0.02903750
Tabla 4. Valores de los percentiles de la serie diaria empírica y teórica del
FTSE100.
Con estos datos, podemos comprobar que la densidad probabilística de los extremos
en la distribución teórica es menor que la de la distribución empírica. Esto nos dice de
que la distribución empírica del FTSE 100 genera colas más pesadas que la
distribución normal y por tanto, se observa una mayor probabilidad de sucesos
extremos en los datos empíricos que la que predice el modelo, lo que nos indica que
no se está valorando correctamente el riesgo, lo que es fundamental para el análisis
de los mercados financieros. Además, estos datos nos revelan que existe asimetría en
la distribución empírica, a diferencia de lo observado en la normal estimada, que se
hace más patente en los percentiles extremos.
5.4. DENSIDADES EN ESCALA LOGARÍTMICA
En la figura 5, podemos ver representadas las gráficas de la figura 3 pero con escala
logarítmica en el eje de ordenadas, aquí podemos ver como la densidad teórica (línea
discontinua) subestima la probabilidad de cambios extremos en el índice, quedando
esta por debajo de la densidad empírica (línea continua) en las colas :
Figura 5.Densidades teóricas normales (línea discontinua) y empíricas obtenidas
(línea continua) para las series (de izquierda a derecha) diarias, semanales y
mensuales del FTSE 100 y escala logarítmica.
5.5. TEST JARQUE-BERA: MEDIDAS DE FORMA
Este test es un contraste de normalidad basado en el estudio de las medidas de forma
(asimetría y curtosis). Consiste en examinar las discrepancias de la distribución de la
muestra observada respecto de la de la distribución que se le asocia en la hipótesis
nula, que es la distribución Normal.
-0.06 -0.04 -0.02 0.00 0.02 0.04 0.06
-4-2024
-0.10 -0.05 0.00 0.05 0.10
-4-2024
-0.2 -0.1 0.0 0.1
-2-10123
López Caballero Francisco
-14-
5.5.1. Asimetría
Este es un fenómeno estadístico a través del cual los valores observados se desvían
de la media con exceso por un lado y defecto hacia el otro lado de la función de
densidad, es decir, la variable toma valores más extremos sobre o por debajo de la
media.
El coeficiente de asimetría se suele denominar como g1, su valor es 0 en
distribuciones simétricas por tanto, si es mayor que 0 es asimetría positiva, es decir los
valores se alejan más sobre la media, y si es menor que 0, indica asimetría negativa.
Cuanto más alejado de 0 sea g1 más alejada estará la muestra de la situación
simétrica. En cualquier caso, la detección de asimetría implica la consideración de no
normalidad. Para considerar si el valor del estadístico está significativamente lejano o
cercano a cerno se necesita determinar el nivel de significación o conocer el p-valor.
La fórmula más utilizada para calcular el estadístico g1 es el coeficiente de asimetría
de Fisher basado en los momentos de orden 3 respecto a la media y la desviación
típica (Martín-Pliego, 2007):
Siendo el tercer momento central, y la desviación típica:
∑ ̅ , ∑ ̅ ⁄
Los valores y los p valores obtenidos aparecen reflejados en la tabla 4:
SERIE p-valor
Diaria -0.1531119 0.000158
Semanal -1.115023 0
Mensual -0.7004345 0.419219
Tabla 5: Coeficiente de asimetría de Fisher y significatividad.
Los datos obtenidos nos indican que todas las distribuciones son asimétricas a la
izquierda, como indican los datos del estadístico y sus p-valores, todos menores que el
valor crítico del 5%, exceptuando la serie mensual, cuyo p-valor supera con creces el
5%. En cuanto al fenómeno de agregación gaussiana, solo podemos observar este en
base a la menor asimetría de la serie mensual en comparativa con la serie semanal.
5.5.2. Curtosis o apuntamiento
La curtosis es un parámetro de forma que estudia la proporción de la varianza que se
explica por la combinación de datos extremos respecto a la media en contraposición
con los que están poco alejados de esta misma. Un exceso de curtosis se materializa
en una mayor concentración de datos cerca de la media de la distribución junto con
alta concentración de datos muy alejados de estas. La curtosis de una distribución
normal es 3, por eso el estadístico utilizado para contrastar la normalidad es el exceso
de curtosis g2 mediante el momento de orden 4 respecto de la media y la desviación
típica. Al igual que ocurre con la asimetría la aceptación del estadístico como
significativamente lejano o cercano a cero vendrá dada por el nivel de significatividad
(Martín-Pliego, 2007):
Donde es el tercer momento central y la desviación típica:
∑ ̅ ∑ ̅
TFG-ECO. Un análisis estadístico del FTSE 100
-15-
En la tabla 6 vemos como las series diaria y semanal y mensual reflejan un
exceso de curtosis o apuntamiento que va diluyéndose a medida que aumentan los
intervalos de tiempo entre los logreturns. Este resultado nos puede llevar a pensar en
el fenómeno de la agregación gaussiana. El p-valor supera el valor crítico de 0.05 en la
serie mensual, mientras que es muy cercano a 0 en las demás series. La curtosis es
menor en la serie mensual que en la semanal, lo que nos permite aceptar cierto nivel
de agregación gaussiana.
Serie p-valor
Diario 9.235182 0
Semanal 14.94744 0
Mensual 3.696271 0.06625882
Tabla 6. Curtosis y sus correspondientes p-valores
5.5.3. Test Jarque-Bera
Es un test exclusivo para la distribución normal, basado en el ajuste entre los
parámetros de asimetría y curtosis de la distribución empírica y una distribución normal
teórica. El estadístico se calcula con la siguiente fórmula (Bera; Jarque, 1980):
( )
Serie X-squared p-valor
Diaria 5928.504 2.2e-16
semanal 4492.97 2.2e-16
mensual 17.0286 0.0002006
Tabla 7. Test de Jarque-Bera y p-valores para las series diarias, semanales y
mensuales del FTSE 100.
Observando los datos podemos constatar que en base a este test, la distribución diaria
y semanal no sigue una distribución normal, estando algo más cercana para la
muestra mensual aunque también se rechaza que siga una distribución una
distribución normal. Basándonos en el análisis de los estadísticos se puede afirmar
que la muestra empírica de los datos presenta el fenómeno de la agregación
gaussiana, al aumentar los niveles de confianza a medida que los intervalos
temporales son mayores.
6. LA DISTRIBUCIÓN NORMAL INVERSA
GAUSSIANA
Como podemos comprobar en base al análisis realizado anteriormente, la distribución
normal no modeliza de forma fiel las variaciones de los logreturns de las cotizaciones
de los activos de la muestra, los datos empíricos reflejan asimetría y un exceso de
curtosis o apuntamiento, además las colas de la función de densidad generalmente
son más pesadas revelandose la información de que la distribución normal infravalora
la probabilidad de variaciones de carácter extremo, en la cotización del índice
estudiado.
Como alternativa, se expone y se utiliza un modelo alternativo, introducido por
Nielssen Brandorf en 1977 para modelizar la distribución del tamaño de los granos de
arena en las playas danesas. Esta distribución es la Normal Inversa Gaussiana o NIG
López Caballero Francisco
-16-
para abreviar, que posteriormente a su introducción se aplicó al campo de las finanzas
y es sugerida por diversos autores como una alternativa a la distribución normal
(Venegas, 2008). Utilizando el programa estadístico R se estudian los parámetros de
este modelo y se analiza gráficamente la distribución para contrastar si este es más
apropiado para reflejar las variaciones de los activos en los mercados financieros.
Esta distribución tiene 4 parámetros, α, β, µ, δ. El parámetro µ es de posición
central, mientras que la asimetría de la distribución NIG viene determinada por β, es
decir, si β>0, la distribución es asimétrica a la derecha y si β<0 es asimétrica al a
izquierda. El caso de β=0 corresponde a una distribución NIG simétrica. El parámetro
de escala es δ, el cual representa una función muy similar que la desviación típica en
la distribución normal, y por último α modeliza el peso de las colas de la distribución.
La densidad de probabilidad de esta distribución es:
√
√
Donde k es la constante de escala = √
y es la función de
Bessel modificada(O'neill, 2008) de tercera clase con índice 1, es decir:
∫ ( )
De la definición de la función de densidad se deduce que los parámetros de
densidad y deben satisfacer | | Además >0.
Si la distribución de una variable aleatoria L es una NIG escribimos
L~NIG . La media y la varianza de L vienen dadas por:
[ ]
√
[ ] ⁄
En la figura 6 se han representado 6 ejemplos de distribución NIG con diferentes
valores de los parámetros. Las 4 superiores están centradas en el origen con un
parámetro de escala δ=0,015. La variación de las colas se puede observar en las
gráficas cuando =30, las dos gráficas superiores de la derecha las colas tienen una
forma hiperbólica y para =150, gráficas de la izquierda son casi lineales. Cuando
utilizamos escala logarítmica, en las gráficas centrales con =30 a la izquierda, y
=150 a la derecha la densidad de la normal con media y varianza iguala a la de la
NIG tiene siempre colas en forma parabólica.
Las dos gráficas inferiores, tienen como parámetros =30, y en la izquierda,
y en la derecha. Se ve en estas gráficas como al variar , las curvas de la NIG
se vuelven asimétricas. Si es positivo, la cola de la izquierda de la línea continua
(NIG) se asemeja más a la curva discontinua (Normal), ocurriendo lo contrario si
toma un valor negativo. No debemos olvidar sin embargo lo que ocurre con , como
podemos ver en las dos gráficas superiores de la derecha, al pasar de un valor 30 a
150, las colas se vuelven más lineales, mientras que en las demás gráficas, la curva
en sus extremos está por encima de la curva de la distribución normal.
TFG-ECO. Un análisis estadístico del FTSE 100
-17-
Figura 6. Comparativa de las gráficas de la NIG. Fila superior ( , izquierda
y =150, derecha), fila intermedia, ídem que superior con escala logarítmica todas con
=0. Las inferiores, de izquierda a derecha, y .
Dado que la densidad de la distribución NIG es conocida, se puede estimar por
máxima verosimilitud sus parámetros, sin embargo, cómo podemos ver en la
expresión esto es un problema que no permite solución explícita como en el
caso de la distribución normal.
Terminamos esta sección mencionando un resultado de la convolución de
variables aleatorias NIG independientes. Si X e Y son dos variables NIG
independientes con parámetros (α, β, μx, δx) y (α, β, μy, δy) respectivamente,
entonces X + Y es una NIG distribuida con parámetros (α, β, μx + μy, δx + δy). Por
tanto, La distribución NIG tiene la propiedad de la convolución de las distribuciones
normales, siempre y cuando α y β sean iguales.
-0.05 0.00 0.05
0510152025
-0.04 -0.02 0.00 0.02 0.04
010203040
-0.10 -0.05 0.00 0.05 0.10
-2-101234
-0.15 -0.10 -0.05 0.00 0.05 0.10 0.15
-15-10-50
-0.05 0.00 0.05
0510152025
-0.05 0.00 0.05
0510152025
López Caballero Francisco
-18-
6.1. ESTIMACIÓN DE LOS PARÁMETROS NIG
A continuación estimamos los parámetros de la NIG por el método de la máxima
verosimilitud. Este método consiste en seleccionar el valor del parámetro que parece
más coherente o verosímil a partir de la muestra obtenida. Es decir, si la muestra es
se selecciona el valor del parámetro que maximiza la expresión |
para la muestra obtenida. es la función de máxima verosimilitud del
parámetro buscado para la muestra en cuestión, donde representa el parámetro a
estimar. Lo que en definitiva se hace para estimar un parámetro por el método de
máxima verosimilitud es seleccionar como más convincente el valor del parámetro
donde la densidad de la muestra es mayor. La ecuación que hay que resolver para
calcular el valor del parámetro es Si es un parámetro de
dimensión , entonces habrá que resolver el sistema de k ecuaciones con k
incógnitas donde j = 1,2,…. k (Alvarado, 2008).
Los parámetros estimados para la distribución NIG aparecen reflejados en la tabla
8, a partir de estos datos podemos comparar la densidad con la de la distribución
normal estimada y la de la muestra empírica.
Serie α β
diaria 57.05522 -4.936 0.0087785 0.00075506
semanal 40.19202 -7.77744 0.0232595 0.004638111
mensual 50.63565 -24.4570 0.0604569 0.03379096
Tabla 8. Parámetros de la NIG estimados a partir de los logreturns diarios,
semanales y mensuales del FTSE100.
En la figura 7 presentamos la NIG ajustada (línea discontinua) junto con la densidad
empírica (línea continua) y la distribución normal estimada (línea discontinua) para
datos diarios, semanales y mensuales. Se observa como la distribución se ajusta a la
empírica tanto las colas como en la zona central, a diferencia de lo que ocurría con la
distribución normal. Sin embargo, al contrario que ocurría con el modelo de Black &
Scholes, este mejor ajuste va desapareciendo si aumentamos los intervalos de tiempo.
Por tanto, la NIG recoge mejor la distribución de la muestra cuando trabajamos con
intervalos pequeños de tiempo.
En cuanto a las colas, a medida que aumentan los intervalos temporales de las
muestras todas las densidades se van pareciendo más a la normal. Sin embargo, la
distribución NIG siempre será la más flexible por su mayor número de parámetros y
flexibilidad, aunque la normal se acercará mucho o la igualará, nunca superará la
precisión de la NIG.
TFG-ECO. Un análisis estadístico del FTSE 100
-19-
Figura 7: Gráficos diarios semanales y mensuales, (de izquierda a derecha) de las
densidades de la NIG (línea punteada), junto con las densidades empíricas (línea
continua) y normal (línea discontinua), elaboradas a partir de los logreturns del
FTSE100.
7. ALTERNATIVA AL MODELO BLACK & SCHOLES
Como ya se ha visto, la distribución normal, al contrario que la NIG, no es un buen
modelo para los logreturns de los activos. En esta sección se va a presentar una
alternativa al modelo de B-S que se adapta mejor a los logreturns observados,
haciendo uso de la distribución NIG. Se considera una evolución de los precios de
forma exponencial S(t) = S(0) exp(L(t)), donde L(t) es un proceso estocástico con
incrementos independientes y estacionarios, siendo así un proceso de Lévy.
Por otra parte, en lugar de suponer incrementos normales, asumimos que L(t) -L(s)
sigue una distribución NIG para todo t > s ≥ 0. El proceso resultante se denomina
proceso de Lévy gaussiano inverso normal. Transformando los precios S(t) a
logreturns con incrementos de tiempo iguales a 1, se obtiene:
X(t) = L(t) – L(t-1)
Las variables aleatorias X(1), X(2), ... son independientes y siguen una distribución
NIG, ya que L(t)-L(t-1) tiene la misma distribución que L(1). Al igual que la sección
anterior, los parámetros α, β, μ y δ de L(1) se pueden estimar a partir de los log-returns
observados. Utilizando la propiedad de convolución de las distribuciones NIG, se tiene
que L(t) es de nuevo una variable NIG con parámetros α, β, μt y δt.
A diferencia del movimiento browniano, el proceso de Lévy gaussiano inverso
normal tiene caminos muestrales discontinuos. En consonancia con lo visto en la
secciones anteriores, un proceso de Lévy gaussiano inverso normal parece más
adecuado que un modelo de B-S para describir los precios de un activo financiero. Sin
embargo, el análisis de este proceso discontinuo es mucho más complicado que el de
un modelo de B-S y cae fuera de los objetivos del presente trabajo.
8. AUTOCORRELACIONES
Si observamos la figura 8, donde se representan los logreturns diarios del FTSE100
podemos ver que se observan periodos en los que existe mayor volatilidad en
contraste con periodos en los que las variaciones que se producen son más pequeñas.
Esto nos puede llevar a sospechar que los logreturns no sean totalmente
-0.06 -0.04 -0.02 0.00 0.02 0.04 0.06
01020304050
López Caballero Francisco
-20-
independientes entre sí como propone el modelo de BS, es decir, que existe cierto
nivel de dependencia por tramos temporales.
Para contrastar la hipótesis de independencia que plantea el modelo de Black &
Scholes se realiza un análisis gráfico de las autocorrelaciones entre las variaciones de
esta, para contrastar si las variaciones presentan algún nivel de dependencia:
Figura 8: Logreturns diarios del FTSE100, serie diaria desde 01/01/2000 hasta el
31/12/2013
Si consideramos como una serie temporal cualquiera de logreturns y asumiendo
que es estacionaria, es decir, el valor esperado de no depende del tiempo y la
covarianza de y solo depende del intervalo de tiempo s se tiene la
siguiente expresión:
Para una función donde , la autocorrelación con s retardos viene dada
por la fórmula:
( ) ,
donde es el valor de la variable X en el momento t.
La autocorrelación mide el sentido y la intensidad con el que un l logreturn
depende de los anteriores. Por tanto, la autocorrelación puede servirnos como
herramienta para predecir los precios futuros (Benth, 2004).
En la figura 9, representamos en la parte superior las autocorrelaciones sobre un
eje vertical con máximo 1 en las gráficas de la izquierda y un eje vertical ajustado a los
máximos y mínimos observados en las de la derecha, se deduce que los logreturns no
están correlacionados, ya que la mayoría están en la banda de confianza al 95%
centrada en el cero.
2000 2005 2010
-0.10-0.050.000.050.10
Index
XFTSED
TFG-ECO. Un análisis estadístico del FTSE 100
-21-
Sin embargo en las gráficas de las dos filas inferiores, donde se utiliza el valor
absoluto de los logreturns y los logreturns al cuadrado, se observa que todas son
positivas y que la gran mayoría se encuentran alejadas significativamente de 0, es
decir, fuera de la banda de confianza al 95%. Además observamos un descenso
progresivo en el valor de la autocorrelación, lo que significa que la correlación entre
dos tamaños de logreturns es mayor cuanto menor es la distancia temporal entre
ellos. En conclusión, aunque no parece que exista autocorrelación entre las
variaciones del FTSE 100, si las hay considerando el tamaño del índice a través del
valor absoluto o delsu cuadrado.
Se prueba por tanto que existe cierto nivel de autocorrelación en el tamaño de los
logreturns diarios del FTSE 100, lo cual contradice el planteamiento del modelo de
Black & Scholes basado en las características del movimiento browniano geométrico
que implícitamente supone que los logrenturns son independientes tanto en sus
valores como en sus tamaños.
López Caballero Francisco
-22-
Figura 9. Autocorrelaciones del FTSE 100. En la columna de la izquierda el máximo
es 1, en la columna de la derecha, los máximos y mínimos dependen del valor de las
autocorrelaciones de los logreturns. De arriba abajo, se muestra la autocorrelación de
los logreturns, la autocorrelación de estos en valores absolutos y la autocorrelación
de los mismos al cuadrado.
0 50 100 150
0.00.20.40.60.81.0
Lag
ACF
0 50 100 150
-0.050.000.05
Lag
ACF
0 50 100 150
0.00.20.40.60.81.0
Lag
ACF
0 50 100 150
0.00.10.20.3
Lag
ACF
0 50 100 150
0.00.20.40.60.81.0
Lag
ACF
0 50 100 150
0.00.10.20.3
Lag
ACF
TFG-ECO. Un análisis estadístico del FTSE 100
-23-
9. CONCLUSIONES
En el presente trabajo se ha puesto de manifiesto las diferencias existentes entre el
modelo teórico algunas consecuencias que se derivan de la adopción del modelo de
Black & Scholes para dinámica de las cotizaciones del índice FTSE 100 y la
observación de datos empíricos. Por tanto, supone una crítica a las premisas básicas
del modelo ya que algunas propiedades que de él se desprenden, no son avaladas por
la observación empírica en base a los datos del FTSE100. Se ha probado por tanto
que el movimiento browniano geométrico como modelo para los logreturns no resulta
adecuado por varios motivos. Además existen modelos como el basado en la
distribución normal inversa gaussiana que modelizan mejor los logreturns del
FTSE100.
En primer lugar, la densidad normal estimada, muestra un comportamiento muy
diferente a la densidad observada a partir de los datos, ya que en la distribución con
datos empíricos las funciónes de densidad revelan asimetría, exceso de curtosis y
colas pesadas. Como consecuencia del fenómeno de las colas pesadas, podemos
ceñirnos a la quiebra del fondo de inversión fundado por Merton y Scholes el cual
utilizando su fórmula de valoración que infravaloró la probabilidad de grandes cambios
en el mercado, como los provocados por el default ruso y las crisis financieras
asiáticas, lo que acabó en un rescate del fondo y su posterior desaparición. Sin
embargo, se observa que a medida que aumenta el tiempo entre observaciones, las
dos distribuciones se van asemejando lo que nos indica que existe el fenómeno de
agregación gaussiana, algo que se observa también en el test de Jarque-Bera, ya que
el p-valor es mayor para los datos mensuales. Además el test de normalidad realizado
muestra que la distribución de las variaciones de las cotizaciones entre intervalos no
sigue una distribución normal, como se deriva del modelo de Black and Scholes.
Seguidamente, se propone una distribución más flexible que permita explicar de
una forma más fiel el comportamiento de los logreturns observados del FTSE100, esta
es la normal inversa gaussiana, que en base a lo observado, parece ajustarse mejor al
comportamiento descrito por los logreturns del FTSE100. Sin embargo, el
planteamiento de un modelo para la evolución temporal de los valores de un activo
que plantee los logreturns siguiendo una NIG, nos lleva a la consideración de procesos
estocásticos de Lévy, los cuales son más difíciles de analizar y no entran en los
objetivos del presente trabajo
Finalmente, bajo el modelo Black & Scholes las autocorrelaciones de los logreturns
no deben ser significativamente diferentes de cero, ya que estos son independientes.
En cierta medida, podemos ver esto con los datos del FTSE100 pero en discrepancia,
observamos que si utilizamos valores absolutos o cuadrados, aparece una correlación
significativa incluso para grandes retardos, mostrando una dependencia entre los
tamaños de los logreturns del FTSE100. Este fenómeno de dependencia, lo convierte
en una herramienta útil para la gestión de carteras y para estrategias de arbitraje.
López Caballero Francisco
-24-
10. BIBLIOGRAFÍA
Jorge Andrés Alvarado (2008): “Fundamento de Inferencia Estadística”, Editorial
Pontificia Universidad Javeriana, Bogotá D.C.
Anil K. Bera; Carlos M. Jarque (1980): “Efficient tests for normality, homoscedasticity and
serialindependence of regression residuals”, en Elsevier B.V.: Economics Letters, Canberra,
Volume 3, Issue 6, 203-299.
Barndorff-Nielsen, O.E.; Halgreen, C. (1977): Infinite Divisibility of the Hyperbolic and
Generalized Inverse Gaussian Distributions. University of Aarhus, Dinamarca.
Black, F.; Scholes, M. (1973): “The pricing of Options and Corporate Liabilities”. Journal
Of Political Economy, 81, 637-654.
Brown, R. (1828), "A brief account of microscopical observations made in the months of
June, July and August, 1827, on the particles contained in the pollen of plants; and on the
general existence of active molecules in organic and inorganic bodies." Phil. Mag. 4, 161-
173.
Davis, M.; Etheridge, A. (2006): “Louis Bachelier´s Theory of $peculation”. Princeton
University Press, Estados Unidos.
www.FTSE.com http://www.ftse.com/Indices/UK_Indices/Constituents_and_Weights.jsp
Fred Espen Benth (2004): “Statiscal analysis of data from the stock market”, en
Springer:Option Theory with Stochastic Analysis, Berlin, Cap 1-2.
García Barbancho, Alfonso. (1992): Estadística teórica básica: probabilidad y modelos
probabilísticos. Ariel, Barcelona.
Alan Greenspan (2007): “The Age of Turbulence: Adventures in a New World”, The
Penguin Press, USA.
José Hernandez Alonso (1995): “Contraste de las hipótesis sobre perturbación aleatoria”,
en ESIC editorial: Introducción a la Econometría, Madrid, 157-180.
Roberto Knop (2005): “Modelos básicos de valoración y griegas”, en Ediciones Empresa
Global: Manual de Instrumentos Derivados. Tres décadas de Black-Scholes, Madrid, 125-
154.
O`Neil, P. (2008): “Matemáticas avanzadas para ingenieria”. Cengage Learning Editores,
México D.F.
Lillefors, H. W. (1967).”On the Kolmogorov-Smirnov Test for Normality with Mean and
Variance Unknow. Journal of American Statiscal Association, Vol. 62, No. 318, pp. 399-402.
Francisco Javier Martín-Pliego López (2007): “Introducción a la Estadística Económica y
Empresarial. Teórica y Práctica”, Editorial Thomson, Madrid.
José Javier Nuñez Velazquez (2011): “Análisis Dinámico Mediante Procesos
Estocásticos Para Actuarios y Finanzas”, Universidad de Alcalá (Servicio de publicaciones),
Alcalá de Henares.
Emmanuel Paradis (2003): “R para Principiantes”, Institut des Sciences de
l’Évolution,Montpellier.
Venegas Martínez.F (2008): “Riesgos Financieros y Económicos. Productos derivados y
decisiones económicas bajo incertidumbre”, Cengage Learning Editores, México, D.F.
TFG-ECO. Un análisis estadístico del FTSE 100
-25-
11. ANEXO
Para la realización de este trabajo se ha utilizado el software estadístico R (Paradis
(2003) es un manual básico) el cual se puede obtener del sitio web www.r-project.org.
A continuación, se muestran y se comentan las instrucciones usadas para llevar a
cabo el estudio empírico presentado.
Simulación del movimiento browniano estándar:
set.seed (23)
BA <- cumsum(rnorm(500,0,1))
par(mar=c(4,4,1,1))
plot(x=c(0:500),y=c(0,BA),type="l",lty=1,xlab="",ylab="",ylim=c(-38,38))
BB <- cumsum(rnorm(500,0,1))
lines (x=c(0:500),y=c(0,BB),type="l",lty=2)
BC <- cumsum(rnorm(500,0,1))
lines (x=c(0:500),y=c(0,BC),type="l",lty=3)
Descarga de las cotizaciones diarias, semanales y mensuales de la página web
http://es.finance.yahoo.com/ y representación del gráfico de las cotizaciones diarias:
library("tseries")
library("zoo")
FTSEd <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12-
31",
compression = "d", quote = "Close")
FTSEw <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12-
31",
compression = "w", quote = "Close")
FTSEm <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12-
31",
compression = "m", quote = "Close")
par(mar=c(4,4,2,1))
plot(FTSEd,xlab="",ylab="",type="l",lty=1)
nd=length(FTSEd); nw=length(FTSEw); nm=length(FTSEm);
Logreturns del FTSE100, diarios, semanales y mensuales:
XFTSED <- diff(log(FTSEd))
XFTSEW <- diff(log(FTSEw))
XFTSEM <- diff(log(FTSEm))
Obtención de la media, desviación típica, mediana, máximos y mínimos de los
logreturns diarios, semanales y mensuales del FTSE100:
mud <- mean(XFTSED)
sigmad <- apply(XFTSED,2,sd)
muw <- mean(XFTSEW)
sigmaw <- apply(XFTSEW,2,sd)
mum <- mean(XFTSEM)
sigmam <- apply(XFTSEM,2,sd)
median(XFTSED); max(XFTSED); min(XFTSED)
median(XFTSEW); max(XFTSEW); min(XFTSEW)
median(XFTSEM); max(XFTSEM); min(XFTSEM)
López Caballero Francisco
-26-
Gráfica de las simulaciones de movimientos brownianos geométricos con parámetros
estimados a partir de las muestras diaria y mensual:
set.seed(1000)
lsd0=log(as.numeric(FTSEd)[1]))
I <- rnorm(length(FTSEd)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,I)))
ssimul <- zoo(ssimul,index(FTSEd))
plot(ssimul,type="l",lty=1,xlab="",ylab="")
B <- rnorm(length(FTSEd)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,B)))
ssimull <- zoo(ssimul,index(FTSEd))
lines(ssimull,type="l",lty=3)
#Mensuales
set.seed(1000)
lsd0=log(as.numeric(FTSEm[1]))
I <- rnorm(length(FTSEm)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,I)))
ssimul <- zoo(ssimul,index(FTSEm))
plot(ssimul,type="l",lty=1,xlab="",ylab="")
B <- rnorm(length(FTSEm)-1,mud,sigmad)
ssimul <- exp(cumsum(c(lsd0,B)))
ssimull <- zoo(ssimul,index(FTSEm))
lines(ssimull,type="l",lty=3)
Representación gráfica de los logreturns diarios del FTSE100 en escala logarítmica:
plot(XFTSED)
Cuantiles teóricos y empíricos de los logreturns del FTSE 100:
qnorm(p=c(0.01,0.02,0.98,0.99),mean=mud,sd=sigmad)
quantile(x=XFTSED,probs=c(0.01,0.02,0.98,0.99))
qnorm(p=c(0.01,0.025,0.975,0.99),mean=muw,sd=sigmaw)
quantile(x=XFTSEW,probs=c(0.01,0.02,0.98,0.99))
qnorm(p=c(0.01,0.02,0.98,0.99),mean=mum,sd=sigmam)
quantile(x=XFTSEM,probs=c(0.01,0.02,0.98,0.99))
Representación gráfica de curvas de densidad del FTSE100 y de la Normal con
parámetros diarios, semanales y mensuales del FTSE100. Y las mismas curvas en
escala logarítmica:
densityXFTSED<-density(XFTSED,n=500)
plot(densityXFTSED ,xlim=c(-0.08,0.08),type="l",lty=1,xlab="",ylab="",main="")
curve(dnorm(x,mean=mud,sd=sigmad),add=TRUE,xlim=c(-
0.06,0.06),n=500,type="l",lty=2,xlab="c(-0",ylab="",main="")
x <- seq(from=-0.06,to=0.06,length.out=500)
plot( densityXFTSED$x,
log(densityXFTSED$y),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.06,0.06),
ylim=c(-4,4))
y <- log( dnorm(x,mean=mud,sd=sigmad) )
lines(x,y,lty=2)
densityXFTSEW<-density(XFTSEW,n=500)
plot(densityXFTSEW ,type="l",lty=1,xlim=c(-0.15,0.15),xlab="",ylab="",main="")
TFG-ECO. Un análisis estadístico del FTSE 100
-27-
curve( dnorm(x,mean=muw,sd=sigmaw),add=TRUE,n=500,type="l",lty=2,xlab="c(-
0",ylab="",main="")
x <- seq(from=-0.15,to=0.15,length.out=500)
plot( densityXFTSEW$x,
log(densityXFTSEW$y),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.12,0.12),
ylim=c(-4,4))
y <- log( dnorm(x,mean=muw,sd=sigmaw) )
lines(x,y,lty=2)
densityXFTSEM<-density(XFTSEM,n=500)
plot(densityXFTSEM,type="l",lty=1,xlim=c(-0.15,0.15),xlab="",ylab="",main="")
curve( dnorm(x,mean=mum,sd=sigmam),add=TRUE,n=500,type="l",lty=2)
x <- seq(from=-0.25,to=0.25,length.out=500)
plot( densityXFTSEM$x, log(densityXFTSEM$y) ,
type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.21,0.18), ylim=c(-2,3))
y <- log( dnorm(x,mean=mum,sd=sigmam))
lines(x,y,lty=2)
Asimetría y curtosis de la muestra de los logreturns del FTSE100 y p-valores:
library(moments)
kurtosis(XFTSED);kurtosis(XFTSEW);kurtosis(XFTSEM)
skewness(XFTSED); skewness(XFTSEW);skewness(XFTSEM)
sk.d <- skewness(XFTSED); stat <- abs(sk.d/sqrt(6/length(XFTSED))); 2*(1-
pnorm(stat))
sk.w <- skewness(XFTSEW); stat <- abs(sk.w/sqrt(6/length(XFTSEW))); 2*(1-
pnorm(stat))
sk.m <- skewness(XFTSEM); stat <- abs(sk.d/sqrt(6/length(XFTSEM))); 2*(1-
pnorm(stat))
ku.d <- kurtosis(XFTSED)-3; stat <- abs(ku.d/sqrt(24/length(XFTSED))); 2*(1-
pnorm(stat))
ku.w <- kurtosis(XFTSEW)-3; stat <- abs(ku.w/sqrt(24/length(XFTSEW))); 2*(1-
pnorm(stat))
ku.m <- kurtosis(XFTSEM)-3; stat <- abs(ku.m/sqrt(24/length(XFTSEM))); 2*(1-
pnorm(stat))
Representación gráfica de ejemplos de densidades de NIG y densidades de la Normal
con parámetros estimados a partir de la NIG:
library(fBasics)
alphao=30; betao=0; muo=0; deltao=0.015
curve(dnig(x,alphao,betao,deltao,muo),xlim=c(-
0.075,0.075),n=500,type="l",lty=1,xlab="",ylab="",main="")
tempo=sqrt(alphao^2-betao^2)
meano <- muo +( (deltao*betao)/(tempo));
sigma2o= (deltao*(alphao^2))/(tempo^3); sigmao=sqrt(sigma2o);
curve(
dnorm(x,mean=meano,sd=sigmao),add=TRUE,n=500,type="l",lty=2,xlab="RETURNS"
,ylab="DENSITY",main="")
x<-seq(from=-0.09,to=0.09,length.out=500)
López Caballero Francisco
-28-
curve(log(dnig(x,alpha= alphao,beta= betao,delta= deltao,mu=
muo)),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.10,0.10), ylim=c(-2,4))
y<-log( dnorm(x,mean=meano,sd=sigmao))
lines(x,y,lty=2)
alphap=150; betap=0; mup=0; deltap=0.015
curve(dnig(x,alphap,betap,deltap,mup),xlim=c(-
0.04,0.04),n=500,type="l",lty=1,xlab="",ylab="",main="")
tempp=sqrt(alphap^2-betap^2)
meanp <- mup +( (deltap*betap)/(tempp));
sigma2p= (deltap*(alphap^2))/(tempp^3); sigmap=sqrt(sigma2p);
curve(
dnorm(x,mean=meanp,sd=sigmap),add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",m
ain="")
x2 <- seq(from=-0.15,to=0.15,length.out=500)
curve( log(dnig(x,alpha= alphap,beta= betap,delta= deltap,mu= mup)),
type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.15,0.15), ylim=c(-15,4))
y2 <- log( dnorm(x,mean=mup,sd=sigmap))
lines(x2,y2,lty=2)
alphaq=30; betaq=10; muq=0; deltaq=0.015
curve(dnig(x,alphaq,betaq,deltaq,muq),xlim=c(-
0.085,0.085),n=500,type="l",lty=1,xlab="",ylab="",main="")
tempq=sqrt(alphaq^2-betaq^2)
meanq <- muq +( (deltaq*betaq)/(tempq));
sigma2q= (deltaq*(alphaq^2))/(tempq^3); sigmaq=sqrt(sigma2q);
curve(dnorm(x,mean=meanq,sd=sigmaq),
add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",main="")
alphar=30; betar=-10; mur=0; deltar=0.015
curve(dnig(x,alphar,betar,deltar,mur),xlim=c(-0.085,0.085),
n=500,type="l",lty=1,xlab="",ylab="",main="")
tempr=sqrt(alphar^2-betar^2)
meanr <- mur +( (deltar*betar)/(tempr));
sigma2r= (deltar*(alphar^2))/(tempr^3); sigmar=sqrt(sigma2r);
curve(dnorm(x,mean=meanr,sd=sigmar),
add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",main="")
Estimación de los parámetros de la NIG por máxima verosimilitud para los intervalos
diarios, semanales y mensuales de la muestra del FTSE100:
NIGD <- nigFit(XFTSED,alpha=100,beta=-3,delta=0.01,mu=0.0001)
NIGW <- nigFit(XFTSEW,alpha=70,beta=-3,delta=0.03,mu=0)
NIGM <- nigFit(XFTSEM,alpha=70,beta=-26,delta=0.1,mu = 0)
alphadd<-57.055;betadd<--4.936;deltadd<-0.0087785;mudd<-0.00075506
temp=sqrt(alphadd^2-betadd^2)
mean <- mudd +( (deltadd*betadd)/(temp));
sigma2= (deltadd*(alphadd^2))/(temp^3); sigma=sqrt(sigma2);
alphaww<-40.19202;betaww<--7.77744;deltaww<-0.0232595;muww<-0.004638111
temp=sqrt(alphaww^2-betaww^2)
mean <- muww +( (deltaww*betaww)/(temp));
sigma2= (deltaww*(alphaww^2))/(temp^3); sigma=sqrt(sigma2);
alphamm<-50.63565;betamm<--24.457;deltamm<-0.0604569;mumm<-0.03379096
temp=sqrt(alphamm^2-betamm^2)
mean <- mumm +( (deltamm*betamm)/(temp));
sigma2= (deltamm*(alphamm^2))/(temp^3); sigma=sqrt(sigma2);
TFG-ECO. Un análisis estadístico del FTSE 100
-29-
Representación gráfica de las curvas de densidad del FTSE100, curvas de densidad
normal con parámetros del FTSE100 y curva de densidad NIG con parámetros
estimados a partir de la muestra:
densityXFTSED <- density(XFTSED,n=500)
plot(densityXFTSED, type="l",lty=1,xlab="",ylab="",main="",
xlim=c(-0.06,0.06))
curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500,
type="l",lty=2,xlab="",ylab="",main="")
alpha=alphadd;beta=betadd;delta=deltadd;
mu=mudd;
curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l",
lty=3,xlab="",ylab="",main="")
densityXFTSEW <- density(XFTSEW,n=500)
plot(densityXFTSEW, type="l",lty=1,xlab="",ylab="",main="",
xlim=c(-0.25,0.25))
curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500,
type="l",lty=2,xlab="",ylab="",main="")
alpha=alphaww;beta=betaww;delta=deltaww;
mu=muww;
curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l",
lty=3,xlab="",ylab="",main="")
densityXFTSEM <- density(XFTSEM,n=500)
plot(densityXFTSEM, type="l",lty=1,xlab="",ylab="",main="",
xlim=c(-0.01,0.01))
curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500,
type="l",lty=2,xlab="",ylab="",main="")
alpha=alphamm;beta=betamm;delta=deltamm;
mu=mumm;
curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l",
lty=3,xlab="",ylab="",main="")
Autocorrelaciones representadas sobre un eje vertical de 0 a 1, sobre un eje vertical
ajustado a máximos y a mínimos de las autocorrelaciones para los logreturns diarios
del FTSE100, los valores absolutos de estos logreturns y los logreturns diarios del
FTSE100 elevados al cuadrado con un retardo de 150:
library(FinTS)
AUTOCORRELACIOND <- Acf(as.numeric(XFTSED),
lag.max=150,type = "correlation",main="",ylim=c(0,1))
AUTOCORRELACIONDABS <- Acf(as.numeric(abs(XFTSED)),
lag.max=150,type = "correlation",main="",ylim=c(0,1))
AUTOCORRELACIONDC<- Acf(as.numeric(XFTSED^2),
lag.max=150,type = "correlation",main="",ylim=c(0,1))
AUTOCORRELACIOND <- Acf(as.numeric(XFTSED),
lag.max=150,type = "correlation",main="")
AUTOCORRELACIONDABS <- Acf(as.numeric(abs(XFTSED)),
lag.max=150,type="correlation",main="",)
AUTOCORRELACIONDC<- Acf(as.numeric(XFTSED^2),
lag.max=150,type="correlation",main="")
Test de normalidad Jarque-Bera y Kolmogorov-Smirnov (corrección de Lilliefors) para
los logreturns diarios, semanales y mensuales del FTSE100:
López Caballero Francisco
-30-
jarque.bera.test(XFTSED);jarque.bera.test(XFTSEW);jarque.bera.test(XFTSEM)
library(nortest)
lillie.test(as.numeric(XFTSED));lillie.test(as.numeric(XFTSEW));lillie.test(as.numeric(XF
TSEM))

Más contenido relacionado

La actualidad más candente

Series de tiempo pp
Series de tiempo ppSeries de tiempo pp
Series de tiempo pp
EQUIPO7
 
Exposicion serie de tiempo caro
Exposicion serie de tiempo caroExposicion serie de tiempo caro
Exposicion serie de tiempo caroCarolina Zuñiga
 
Series cronologicas
Series cronologicasSeries cronologicas
Series cronologicas
Suedimar Chirinos
 
Análisis de series de tiempo
Análisis de series de tiempoAnálisis de series de tiempo
Análisis de series de tiempoIsaac Gomez
 
Serie cronológica
Serie cronológicaSerie cronológica
Serie cronológica
sasstone
 
R. DE ESTADISTICA DE LA UNIDAD IV DE FELIX C.
R. DE ESTADISTICA DE LA UNIDAD IV  DE FELIX C.R. DE ESTADISTICA DE LA UNIDAD IV  DE FELIX C.
R. DE ESTADISTICA DE LA UNIDAD IV DE FELIX C.
FELIX Castro Garcia
 
Unidad-3-analisis-de-series-de-tiempo
Unidad-3-analisis-de-series-de-tiempoUnidad-3-analisis-de-series-de-tiempo
Unidad-3-analisis-de-series-de-tiempo
f2721
 
241533837 modelo-econometrico-para-pronosticos-de-exportacion
241533837 modelo-econometrico-para-pronosticos-de-exportacion241533837 modelo-econometrico-para-pronosticos-de-exportacion
241533837 modelo-econometrico-para-pronosticos-de-exportacion
Kevin Palomino
 
Series de Tiempo
Series de TiempoSeries de Tiempo
Series de Tiempo
xpr1985
 
Time series
Time seriesTime series
Time series
Norlan0987
 
PronóSticos
PronóSticosPronóSticos
PronóSticos
Gabriel Leandro
 
Unidad #5 MODELO CLÁSICO DE SERIES DE TIEMPO
Unidad #5 MODELO CLÁSICO DE SERIES DE TIEMPOUnidad #5 MODELO CLÁSICO DE SERIES DE TIEMPO
Unidad #5 MODELO CLÁSICO DE SERIES DE TIEMPO
Erick Cantona
 
Series de tiempo
Series de tiempoSeries de tiempo
Series de tiempo
Charlyii
 
Presentacion series cronologicas
Presentacion series cronologicasPresentacion series cronologicas
Presentacion series cronologicas
Abner Adiel Kalel
 
Tendencias Lineales o no lineales / Estadistica
Tendencias Lineales o no lineales / EstadisticaTendencias Lineales o no lineales / Estadistica
Tendencias Lineales o no lineales / Estadistica
Bego E A
 
Foro 3
Foro 3Foro 3
Foro 3
Ali Lema
 

La actualidad más candente (18)

Series de tiempo pp
Series de tiempo ppSeries de tiempo pp
Series de tiempo pp
 
Exposicion serie de tiempo caro
Exposicion serie de tiempo caroExposicion serie de tiempo caro
Exposicion serie de tiempo caro
 
Series cronologicas
Series cronologicasSeries cronologicas
Series cronologicas
 
Análisis de series de tiempo
Análisis de series de tiempoAnálisis de series de tiempo
Análisis de series de tiempo
 
Serie cronológica
Serie cronológicaSerie cronológica
Serie cronológica
 
R. DE ESTADISTICA DE LA UNIDAD IV DE FELIX C.
R. DE ESTADISTICA DE LA UNIDAD IV  DE FELIX C.R. DE ESTADISTICA DE LA UNIDAD IV  DE FELIX C.
R. DE ESTADISTICA DE LA UNIDAD IV DE FELIX C.
 
Unidad-3-analisis-de-series-de-tiempo
Unidad-3-analisis-de-series-de-tiempoUnidad-3-analisis-de-series-de-tiempo
Unidad-3-analisis-de-series-de-tiempo
 
241533837 modelo-econometrico-para-pronosticos-de-exportacion
241533837 modelo-econometrico-para-pronosticos-de-exportacion241533837 modelo-econometrico-para-pronosticos-de-exportacion
241533837 modelo-econometrico-para-pronosticos-de-exportacion
 
Series de Tiempo
Series de TiempoSeries de Tiempo
Series de Tiempo
 
Time series
Time seriesTime series
Time series
 
PronóSticos
PronóSticosPronóSticos
PronóSticos
 
Series cronologicas
Series cronologicasSeries cronologicas
Series cronologicas
 
Unidad #5 MODELO CLÁSICO DE SERIES DE TIEMPO
Unidad #5 MODELO CLÁSICO DE SERIES DE TIEMPOUnidad #5 MODELO CLÁSICO DE SERIES DE TIEMPO
Unidad #5 MODELO CLÁSICO DE SERIES DE TIEMPO
 
Series de tiempo
Series de tiempoSeries de tiempo
Series de tiempo
 
Presentacion series cronologicas
Presentacion series cronologicasPresentacion series cronologicas
Presentacion series cronologicas
 
Foro
ForoForo
Foro
 
Tendencias Lineales o no lineales / Estadistica
Tendencias Lineales o no lineales / EstadisticaTendencias Lineales o no lineales / Estadistica
Tendencias Lineales o no lineales / Estadistica
 
Foro 3
Foro 3Foro 3
Foro 3
 

Destacado

Guia del trabajo_de_fin_de_grado
Guia del trabajo_de_fin_de_gradoGuia del trabajo_de_fin_de_grado
Guia del trabajo_de_fin_de_gradocarballolixo
 
TFG Líbero, la culturización del deporte rey
TFG Líbero, la culturización del deporte reyTFG Líbero, la culturización del deporte rey
TFG Líbero, la culturización del deporte rey
lvaroRamosIzquierdo
 
Ejemplo TFG. La comunicaión no verbal del profesorado
Ejemplo TFG. La comunicaión no verbal del profesoradoEjemplo TFG. La comunicaión no verbal del profesorado
Ejemplo TFG. La comunicaión no verbal del profesorado
FRANCISCO PAVON RABASCO
 
Normativa tfg san rafael nebrija 2013
Normativa tfg san rafael   nebrija 2013Normativa tfg san rafael   nebrija 2013
Normativa tfg san rafael nebrija 2013c_naranjoortiz
 
recomendaciones para escribir el planteamiento problema
recomendaciones para escribir el planteamiento problemarecomendaciones para escribir el planteamiento problema
recomendaciones para escribir el planteamiento problemadocente felipe izquierdo
 
Presentacion problema cientifico e investigación.
Presentacion problema cientifico e investigación.Presentacion problema cientifico e investigación.
Presentacion problema cientifico e investigación.Ricardo Chacon
 
Como plantear el problema
Como plantear el problemaComo plantear el problema
Como plantear el problema
taniarussian
 
Ejemplos del marco teorico, antecedentes y marco legal de la investigacion
Ejemplos del marco teorico, antecedentes y marco legal de la investigacionEjemplos del marco teorico, antecedentes y marco legal de la investigacion
Ejemplos del marco teorico, antecedentes y marco legal de la investigacion
Ninoska Rodriguez
 
La formulacion de un problema en un Proyecto de Investigacion
 La formulacion de un problema en un Proyecto de Investigacion La formulacion de un problema en un Proyecto de Investigacion
La formulacion de un problema en un Proyecto de Investigacioncarmencordones2013
 

Destacado (12)

Guia del trabajo_de_fin_de_grado
Guia del trabajo_de_fin_de_gradoGuia del trabajo_de_fin_de_grado
Guia del trabajo_de_fin_de_grado
 
TFG Líbero, la culturización del deporte rey
TFG Líbero, la culturización del deporte reyTFG Líbero, la culturización del deporte rey
TFG Líbero, la culturización del deporte rey
 
TFG JAVIER LEYVA RICO
TFG JAVIER LEYVA RICOTFG JAVIER LEYVA RICO
TFG JAVIER LEYVA RICO
 
Ejemplo TFG. La comunicaión no verbal del profesorado
Ejemplo TFG. La comunicaión no verbal del profesoradoEjemplo TFG. La comunicaión no verbal del profesorado
Ejemplo TFG. La comunicaión no verbal del profesorado
 
Normativa tfg san rafael nebrija 2013
Normativa tfg san rafael   nebrija 2013Normativa tfg san rafael   nebrija 2013
Normativa tfg san rafael nebrija 2013
 
TFG Comunicación Audiovisual
TFG Comunicación AudiovisualTFG Comunicación Audiovisual
TFG Comunicación Audiovisual
 
Tfg b.128
Tfg b.128Tfg b.128
Tfg b.128
 
recomendaciones para escribir el planteamiento problema
recomendaciones para escribir el planteamiento problemarecomendaciones para escribir el planteamiento problema
recomendaciones para escribir el planteamiento problema
 
Presentacion problema cientifico e investigación.
Presentacion problema cientifico e investigación.Presentacion problema cientifico e investigación.
Presentacion problema cientifico e investigación.
 
Como plantear el problema
Como plantear el problemaComo plantear el problema
Como plantear el problema
 
Ejemplos del marco teorico, antecedentes y marco legal de la investigacion
Ejemplos del marco teorico, antecedentes y marco legal de la investigacionEjemplos del marco teorico, antecedentes y marco legal de la investigacion
Ejemplos del marco teorico, antecedentes y marco legal de la investigacion
 
La formulacion de un problema en un Proyecto de Investigacion
 La formulacion de un problema en un Proyecto de Investigacion La formulacion de un problema en un Proyecto de Investigacion
La formulacion de un problema en un Proyecto de Investigacion
 

Similar a TFG FORMATO VALIDO FRANCISCO LOPEZ - Copy

Educación Financiera
Educación FinancieraEducación Financiera
Educación Financiera
MITZI PACHECO LAURIN
 
Actividad taller 1
Actividad taller 1Actividad taller 1
Actividad taller 1
hectoralferez
 
Contabilidad Financiera
Contabilidad FinancieraContabilidad Financiera
Contabilidad Financiera
alejandrocl
 
Contabilidad Financiera Unidad 6
Contabilidad Financiera Unidad 6Contabilidad Financiera Unidad 6
Contabilidad Financiera Unidad 6
nattcastro
 
Fudamentos Estadisticos en las finanzas.
Fudamentos Estadisticos en las finanzas.Fudamentos Estadisticos en las finanzas.
Fudamentos Estadisticos en las finanzas.
luis gonzabay
 
Fundamentos estadisticos en finanzas
Fundamentos estadisticos en finanzasFundamentos estadisticos en finanzas
Fundamentos estadisticos en finanzas
Silvio Gomez G
 
Entrega 3 logistica (2)
Entrega 3 logistica (2)Entrega 3 logistica (2)
Entrega 3 logistica (2)
Nicolas Ignacio
 
Métodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptx
Métodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptxMétodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptx
Métodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptx
DailitGonzlezCapote2
 
Portafolios eficientes y asignacion optima de activos mariano muruzabal
Portafolios eficientes y asignacion optima de activos mariano muruzabalPortafolios eficientes y asignacion optima de activos mariano muruzabal
Portafolios eficientes y asignacion optima de activos mariano muruzabalmmuruzabal
 
2448-6795-rmef-14-03-397.pdf
2448-6795-rmef-14-03-397.pdf2448-6795-rmef-14-03-397.pdf
2448-6795-rmef-14-03-397.pdf
ssuser316bca1
 
Diapositivas Curso De Metodologia Cies
Diapositivas Curso De Metodologia CiesDiapositivas Curso De Metodologia Cies
Diapositivas Curso De Metodologia Cies
USAT
 
Introduccion
IntroduccionIntroduccion
Introduccion
Sandra
 
9 analisis de equilibrio
9 analisis de equilibrio9 analisis de equilibrio
9 analisis de equilibrio
Juan Nina Chura
 
ESTADÍSTICA CON CALIDAD.
ESTADÍSTICA CON CALIDAD.ESTADÍSTICA CON CALIDAD.
ESTADÍSTICA CON CALIDAD.
markos050688
 

Similar a TFG FORMATO VALIDO FRANCISCO LOPEZ - Copy (20)

Educación Financiera
Educación FinancieraEducación Financiera
Educación Financiera
 
CAPTULO13.doc
CAPTULO13.docCAPTULO13.doc
CAPTULO13.doc
 
Actividad taller 1
Actividad taller 1Actividad taller 1
Actividad taller 1
 
Bccr%204
Bccr%204Bccr%204
Bccr%204
 
Contabilidad Financiera
Contabilidad FinancieraContabilidad Financiera
Contabilidad Financiera
 
Contabilidad Financiera Unidad 6
Contabilidad Financiera Unidad 6Contabilidad Financiera Unidad 6
Contabilidad Financiera Unidad 6
 
Fudamentos Estadisticos en las finanzas.
Fudamentos Estadisticos en las finanzas.Fudamentos Estadisticos en las finanzas.
Fudamentos Estadisticos en las finanzas.
 
Fundamentos estadisticos en finanzas
Fundamentos estadisticos en finanzasFundamentos estadisticos en finanzas
Fundamentos estadisticos en finanzas
 
Vasicek & CIR Model - Paper Final Grado
Vasicek & CIR Model - Paper Final GradoVasicek & CIR Model - Paper Final Grado
Vasicek & CIR Model - Paper Final Grado
 
Filtro hp 2007
Filtro hp 2007Filtro hp 2007
Filtro hp 2007
 
Entrega 3 logistica (2)
Entrega 3 logistica (2)Entrega 3 logistica (2)
Entrega 3 logistica (2)
 
Métodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptx
Métodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptxMétodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptx
Métodos estadísticos Aplicados a la Gestión Tributaria (clase 5).pptx
 
Portafolios eficientes y asignacion optima de activos mariano muruzabal
Portafolios eficientes y asignacion optima de activos mariano muruzabalPortafolios eficientes y asignacion optima de activos mariano muruzabal
Portafolios eficientes y asignacion optima de activos mariano muruzabal
 
9 analisis de equilibrio
9 analisis de equilibrio9 analisis de equilibrio
9 analisis de equilibrio
 
2448-6795-rmef-14-03-397.pdf
2448-6795-rmef-14-03-397.pdf2448-6795-rmef-14-03-397.pdf
2448-6795-rmef-14-03-397.pdf
 
Diapositivas Curso De Metodologia Cies
Diapositivas Curso De Metodologia CiesDiapositivas Curso De Metodologia Cies
Diapositivas Curso De Metodologia Cies
 
Introduccion
IntroduccionIntroduccion
Introduccion
 
9 analisis de equilibrio
9 analisis de equilibrio9 analisis de equilibrio
9 analisis de equilibrio
 
ESTADÍSTICA CON CALIDAD.
ESTADÍSTICA CON CALIDAD.ESTADÍSTICA CON CALIDAD.
ESTADÍSTICA CON CALIDAD.
 
Taylor
TaylorTaylor
Taylor
 

TFG FORMATO VALIDO FRANCISCO LOPEZ - Copy

  • 1. FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES GRADO EN ECONOMÍA Un análisis estadístico del FTSE 100 Trabajo Fin de Grado presentado por Francisco López Caballero, siendo el tutor del mismo el profesor José Manuel Gavilán Ruiz Vº. Bº. del Tutor Alumno/a: D. José Manuel Gavilán Ruiz D. Francisco López Caballero Sevilla. Junio de 2014
  • 2.
  • 3. GRADO EN ECONOMÍA FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES TRABAJO FIN DE GRADO CURSO ACADÉMICO [2013-2014] TÍTULO: UN ANÁLISIS ESTADÍSTICO DEL FTSE 100 AUTOR: FRANCISCO LÓPEZ CABALLERO TUTOR: D. JOSÉ MANUEL GAVILÁN RUIZ DEPARTAMENTO: DEPARTAMENTO DE ECONOMÍA APLICADA I ÁREA DE CONOCIMIENTO: ESTADÍSTICA RESUMEN: A lo largo de este trabajo, se analizan algunas de las premisas básicas que establece el modelo de Black & Scholes para la evolución temporal de los precios de un activo financiero, principalmente se analiza aquella premisa que establece que las variaciones de los activos financieros entre intervalos de tiempo se ajustan a una distribución normal y son independientes entre intervalos de tiempo que no se solapan. Para ello se usan datos reales de cierre del índice FTSE 100, y como herramienta de análisis, el software estadístico R. PALABRAS CLAVE: Modelo de Black & Scholes; distribución normal; FTSE 100; software R.
  • 4.
  • 5. TFG-ECO. Un análisis estadístico del FTSE 100 -I- ÍNDICE 1. INTRODUCCIÓN.....................................................................................................................................................................................................................1-2 2. EL FTSE 100....................................................................................................................................................................................................................................... 2 2.1. COMPOSICIÓN Y PONDERACIÓN POR SECTORES...................................................................... 3 3. EL MODELO DE B&S............................................................................................................................................................................................................. 4 3.1. EL MOVIMIENTO BROWNIANO......................................................................................................................................... 5 3.2. HISTORIA, ORIGEN Y AUTORES................................................................................................................................... 6 3.3. MARCO TEÓRICO.................................................................................................................................................................................. 6 3.4. SIMULACIÓN DEL MOVIMIENTO BROWNIANO....................................................................................... 7 4. DATOS EMPÍRICOS DEL FTSE 100..................................................................................................................................................... 8-10 5. AGREGACIÓN GAUSSIANA................................................................................................................................................................................... 10 5.1. TEST DE NORMALIDAD............................................................................................................................................................ 11 5.1.1. Contraste de Kolmogorov-Smirnov............................................................................................................... 11 5.2. COMPARACIÓN GRÁFICA DE DENSIDADES................................................................................................... 12 5.2.1. Colas pesadas y medidas de forma............................................................................................................. 12 5.3. VALUE AT RISK................................................................................................................................................................................................ 13 5.4. DENSIDADES EN ESCALA LOGARÍTMICA............................................................................................................ 13 5.5. TEST JARQUE-BERA: MEDIDAS DE FORMA.......................................................................................... 13-14 5.5.1. Asimetría.................................................................................................................................................................................... 14 5.5.2. Curtosis o apuntamiento............................................................................................................................ 14-15 5.5.3. Test Jarque-Bera........................................................................................................................................................... 15 6. LA DISTRIBUCIÓN NORMAL INVERSA GAUSSIANA............................................................................................ 15-17 6.1. ESTIMACIÓN DE LOS PARÁMETROS DE LA NIG...................................................................................... 18 7. UNA ALTERNATIVA AL MODELO DE B&S....................................................................................................................................... 19 8. AUTOCORRELACIONES................................................................................................................................................................................... 19-21 9. CONCLUSIONES..................................................................................................................................................................................................................... 22 10. BIBLIOGRAFÍA......................................................................................................................................................................................................................... 23 11. ANEXO....................................................................................................................................................................................................................................... 24-27
  • 6.
  • 7. TFG-ECO. Un análisis estadístico del FTSE 100 -1- 1. INTRODUCCIÓN El relativamente reciente desarrollo de los mercados financieros, unido al afán del ser humano por predecir el futuro, ha llevado asociado el desarrollo de modelos de predicción, basados en técnicas estadísticas y actuariales que tratan de anticipar los acontecimientos futuros al momento presente con el fin de anticipar cambios inesperados y posicionarse estratégicamente de la forma más óptima posible minimizando por ejemplo los efectos de una crisis financiera. Conociendo a través de estos modelos los posibles riesgos asociados a cualquier producto financiero, podríamos predecir un gran cambio en el mercado, lo que nos permitiría estar “cubiertos” y reducir así los efectos que las crisis financieras provocan en la economía real. En el ámbito de este trabajo estudiaremos un modelo introducido en 1973, conocido como el modelo Black & Scholes para la valoración de opciones financieras, el cual en aplicaciones posteriores se extendió a otros productos financieros, por su utilidad tanto para especular con las fluctuaciones precio de los activos, como para llevar a cabo estrategias de cobertura financiera. En este trabajo se analizan todas las premisas básicas de este modelo, y con el uso de algunas técnicas cuantitativas se mide con qué grado de exactitud este modelo es capaz de modelizar las variaciones de un índice bursátil real, el FTSE100 o Financial Times Stock Exchange, de la bolsa de valores de Londres. Además, se compara este con otro modelo, la NIG (Normal inversa gaussiana) el cual, modeliza mejor las variaciones del mencionado índice. Para ello, se utiliza como herramienta el software estadístico-R se estiman todos los parámetros de ambos modelos utilizando las series de datos de los logaritmos de los retornos (En adelante, logreturns) de cierre del mencionado índice. Además se simula el movimiento browniano estándar, premisa básica del Black Scholes, y se representan gráficamente las densidades de la muestra, densidad de la normal y la normal inversa gaussiana con los parámetros estimados, llevamos a cabo un test de normalidad, se analiza el valor en riesgo y las autocorrelaciones. La organización del trabajo, se ajusta de manera lógica a un estudio de estas características, es decir, una pequeña introducción ocupa la sección 1. La sección 2 contiene un análisis característico, estructural e histórico de nuestro índice. En la sección 3, explicamos el modelo Black & Scholes estudiando su principal premisa matemática, el movimiento browniano definiendo su marco histórico y teórico, realizando finalmente varias simulaciones del mismo. En la sección 4, se realiza un test de normalidad, y además de una comparativa gráfica de las curvas de densidad teóricas, y las observadas empíricamente con objeto de medir el grado de ajuste, y de corroborar si existe el fenómeno de la agregación gaussiana. En la sección 5 realizamos un análisis de asimetría y curtosis, consonante con el objetivo de descartar la normalidad como proceso para modelizar las variaciones de los precios de los activos en los mercados financieros. En base al análisis anterior, en las secciones 6 y 7 proponemos como alternativa la distribución normal inversa gaussiana, que al tener parámetros de asimetría y curtosis, es más flexible para modelar la distribución de las variaciones de los logreturns del FTSE100. En la sección 8, se utiliza el análisis de autocorrelaciones de los logreturns del FTSE100, para ver si lo observado es compatible con la independencia entre variaciones que caracteriza implícitamente al modelo de Black & Scholes. Por último,
  • 8. López Caballero Francisco -2- en la sección 9 se presentan una serie de conclusiones en base al análisis realizado y se añade en un apéndice el código utilizado en el software que nos ha servido tanto para la obtención de datos, como para la realización de su análisis estadístico. 2. El FTSE100 FTSE 100 (Financial Times Stock Exchange) o, de manera informal, "Footsie", es como se denomina al índice agregado que engloba las acciones de las 100 empresas con mayor capitalización del Reino Unido (FTSE.com) constituyendo el índice principal o de referencia del mercado de valores británico así como S&P 500 lo es en EEUU, el DAX 100 en Alemania o el IBEX 35 en España. Éste da cuenta de la capitalización flotante ponderada de los 100 activos británicos más líquidos y con mayor capitalización, cotizados en la Bolsa de Londres. La fórmula que determina su composición es una media aritmética ponderada a la que se añade un factor de capitalización flotante o free-float que determina el porcentaje de acciones que realmente se están negociando en el mercado bursátil. Además de ser el índice más representativo de la economía británica así como de su salud financiera y económica, la importante posición del mercado de valores británico lo convierte en uno de los índices más utilizados y seguidos por los agentes del mercado, por ejemplo como un indicador de la prosperidad de los negocios para las empresas reguladas por el Derecho de sociedades del Reino Unido. Para ello, podemos constatar que las sociedades que en él están representadas corresponden a más del 80% de la capitalización bursátil total de la Bolsa de Londres. El índice se mantiene por el Grupo FTSE, una compañía líder global en indexación perteneciente al London Stock Exchange Group. Este índice se calcula en tiempo real y se publica cada 15 segundos, es decir, cotiza en el Mercado continuo entre las horas de apertura y de cierre del mercado 8:00 A.M y 16:30 P.M respectivamente. Los valores de cierre se toman a las 16:35. (FTSE.com) Es importante tener en cuenta que la composición de este índice bursátil se revisa cada trimestre. La última revisión disponible es de Marzo de 2014. Cuando una sociedad cotizada sale de este índice, generalmente es reemplazada por una sociedad cotizada en el FTSE 250, el cual muestra la misma información pero para los 250 valores más líquidos y con mayor capitalización. A veces sucede el hecho de que el número de títulos cotizados es superior a 100, en particular, cuando las sociedades emiten varios títulos diferentes (Royal Dutch Shell). En lo que respecta al análisis histórico de las cotizaciones del FTSE 100 podemos obtener diversas indicaciones en cuanto la forma en que reacciona frente a distintas situaciones económicas y a las crisis. Comenzó su andadura el 3 de Enero de 1984 con una cotización de 1000 puntos de base, alcanzando en el año 1999 su más alto umbral histórico en 6950 puntos. A continuación, descendió terminando a 6730 puntos básicos en 2007.Este índice, sufrió durante la crisis las sub-primes y descendió hacia los 5495 puntos. La posterior crisis económica llevará este índice cerca de los niveles históricos más bajos registrados unos 3500 puntos aproximadamente en el año 2009 seguidas de una serie de reactivaciones hasta el nivel de los 5500 puntos en 2010. Desde el año 2010, el FTSE 100 tiende más bien a evolucionar al alza. En efecto, se pudo constatar una fuerte tendencia alcista en julio de 2010 que permitió superar el umbral de 6000 puntos. En 2011, este índice se estabilizó en 5800 puntos aproximadamente. Más recientemente, superó la barrera de los 6000 puntos a principios de 2013 para avanzar en dientes de sierra hasta los 6400 puntos aproximadamente en el mes de Marzo de 2014.
  • 9. TFG-ECO. Un análisis estadístico del FTSE 100 -3- 2.1. Composición del FTSE 100 y ponderaciones por sectores económicos: En la tabla 1, se muestran, los constituyentes del FTSE 100, así como su ponderación en el índice y el sector productivo al que pertenecen. Los datos se han extraido de la página web del grupo FTSE y se corresponden al mes de Mayo de 2014: Constituent name Index Weight (%) ICB Supersector Description Constituent name Index Weight (%) ICB Supersector Description BG Group 2,30 Oil & Gas Kingfisher 0,60 Retail BP 5,35 Oil & Gas Marks & Spencer Group 0,44 Retail Petrofac 0,22 Oil & Gas Morrison (Wm) Supermarkets 0,28 Retail Royal Dutch Shell A 5,11 Oil & Gas Next 0,59 Retail Royal Dutch Shell B 3,46 Oil & Gas Sainsbury (J) 0,27 Retail Tullow Oil 0,41 Oil & Gas Sports Direct International 0,11 Retail Johnson Matthey 0,40 Chemicals Tesco 1,43 Retail Anglo American 1,20 Basic Resources British Sky Broadcasting Group 0,53 Media Antofagasta 0,18 Basic Resources ITV 0,43 Media BHP Billiton 2,35 Basic Resources Pearson 0,52 Media Fresnillo 0,09 Basic Resources Reed Elsevier 0,65 Media Glencore Xstrata 1,79 Basic Resources WPP 1,01 Media Mondi 0,23 Basic Resources Carnival 0,25 Travel & Leisure Randgold Resources 0,25 Basic Resources Compass Group 0,99 Travel & Leisure Rio Tinto 2,51 Basic Resources Easyjet 0,26 Travel & Leisure CRH 0,73 Construction & Materials InterContinental Hotels Group 0,30 Travel & Leisure Aggreko 0,23 Industrial Goods & Services International Consolidated Airlines Group 0,51 Travel & Leisure Ashtead Group 0,29 Industrial Goods & Services TUI Travel 0,13 Travel & Leisure Babcock International Group 0,29 Industrial Goods & Services Whitbread 0,45 Travel & Leisure BAE Systems 0,80 Industrial Goods & Services William Hill 0,18 Travel & Leisure Bunzl 0,32 Industrial Goods & Services BT Group 1,80 Telecommunicati ons Capita 0,44 Industrial Goods & Services Vodafone Group 3,53 Telecommunicati ons Experian 0,66 Industrial Goods & Services Centrica 1,01 Utilities G4S 0,23 Industrial Goods & Services National Grid 1,85 Utilities IMI 0,24 Industrial Goods & Services Severn Trent 0,26 Utilities Intertek Group 0,30 Industrial Goods & Services SSE 0,85 Utilities Meggitt 0,23 Industrial Goods & Services United Utilities Group 0,32 Utilities Melrose Industries 0,19 Industrial Goods & Services Barclays 2,26 Banks Rexam 0,23 Industrial Goods & Services HSBC Hldgs 6,90 Banks Rolls-Royce Holdings 1,21 Industrial Goods & Services Lloyds Banking Group 2,18 Banks Royal Mail 0,21 Industrial Goods & Services Royal Bank Of Scotland Group 0,39 Banks Smiths Group 0,30 Industrial Goods & Services Standard Chartered 1,50 Banks Travis Perkins 0,28 Industrial Goods & Services Admiral Group 0,17 Insurance Weir Group 0,33 Industrial Goods & Services Aviva 0,85 Insurance Wolseley 0,54 Industrial Goods & Services Legal & General Group 0,72 Insurance GKN 0,38 Automobiles & Parts Old Mutual 0,59 Insurance Associated British Foods 0,58 Food & Beverage Prudential 1,95 Insurance Coca-Cola HBC AG 0,18 Food & Beverage Resolution 0,25 Insurance Diageo 2,83 Food & Beverage RSA Insurance Group 0,27 Insurance SABMiller 1,71 Food & Beverage St.James Place 0,25 Insurance Unilever 1,86 Food & Beverage Standard Life 0,54 Insurance Barratt Developments 0,24 Personal & Household Goods British Land Co 0,39 Real Estate British American Tobacco 3,80 Personal & Household Goods Hammerson 0,24 Real Estate Burberry Group 0,37 Personal & Household Goods Land Securities Group 0,48 Real Estate Imperial Tobacco Group 1,41 Personal & Household Goods Aberdeen Asset Management 0,22 Financial Services Persimmon 0,25 Personal & Household Goods Hargreaves Lansdown 0,19 Financial Services Reckitt Benckiser Group 1,90 Personal & Household Goods London Stock Exchange Group 0,21 Financial Services
  • 10. López Caballero Francisco -4- AstraZeneca 2,92 Health Care Schroders 0,18 Financial Services GlaxoSmithKline 4,67 Health Care ARM Holdings 0,84 Technology Shire 1,04 Health Care Sage Group 0,28 Technology Smith & Nephew 0,49 Health Care Tabla 1. Composición del FTSE100 y ponderación por sectores económicos. Fuente: FTSE.com, Mayo 2014 3. El MODELO BLACK & SCHOLES En consonancia con fuerte desarrollo vivido por los mercados financieros durante los últimos 20-30 años y la consecuente ganancia de importancia relativa de la industria financiera en los mercados mundiales, han ido apareciendo a lo largo de estos años métodos de valoración de productos financieros los cuales apoyándose en la aplicación de métodos matemáticos y estadísticos, han tenido como objetivo el de realizar valoraciones correctas y fiables de los distintos productos financieros que han ganado en grado de complejidad y diversidad. Estos productos pueden ser valores, bonos, divisas y derivados, como las opciones. Este enfoque basado en la utilización de herramientas estadísticas y matemáticas tiene su origen en la publicación de la fórmula Black-Scholes en 1973 para el cálculo de opciones europeas. Esta publicación fue realizada Robert C. Merton el cual se había ayudado para ello de los modelos estocásticos desarrollados por Fischer Black y Myron Scholes, haciendo referencia a un modelo matemático que fue empleado para estimar el valor actual de opciones europeas para la compra o venta de acciones en una fecha futura. Fue tal la repercusión de esta fórmula que en 1997, Merton y Scholes recibieron el premio Nobel de economía. En su origen, como ya hemos mencionado estaba ideado para la valoración de opciones de tipo europeo, en las cuales la ejecución legal del contrato se produce en el momento del vencimiento. Debemos apuntar que estas opciones son instrumentos en los cuales se atribuye a la parte compradora el derecho de comprar o vender en el futuro un determinado activo al precio acordado en el contrato o “strike-price” y a la contraparte la obligación de vender o comprar dicho activo en la fecha de vencimiento. Sin embargo, más adelante se amplió para opciones americanas y mercado monetario. En este contexto, Scholes y Merton fundaron el fondo de inversión Long Term Capital Portfolio L.P. que se incluyó en el fondo especulativo Long Term Capital Management fundado por John Meriwether en 1994, usando su fórmula para el cálculo de opciones y otros productos derivados. En sus inicios el fondo proporcionó una rentabilidad neta del 40 por ciento a sus inversores pero en 1998 perdió 4600 millones de dólares en cuatro meses durante la crisis del rublo ruso y la crisis financiera asiática. Esto hizo que el fondo tuviese que ser rescatado por otras instituciones financieras bajo la supervisión de la reserva federal y que finalmente fue cerrado en el año 2000 (Greenspan, 2007). El componente probabilístico de este modelo se basa en la distribución teórica de las variaciones de la cotización del activo subyacente entre periodos de tiempo. La distribución teórica utiliza el supuesto sobre el modelo que sigue la distribución de las variaciones de las cotizaciones. Dicho modelo, se denomina movimiento browniano, el cual está basado en la distribución normal. La fórmula de Black & Scholes para opciones de compra (call) y de venta (put) es la siguiente: Call: SN (d1) – Ke-rTN (d2) Put: - SN (-d1) +Ke-rTN (-d2) Donde d1 y d2 son calculadas como:
  • 11. TFG-ECO. Un análisis estadístico del FTSE 100 -5- d1: ( ) ( ) d2: Siendo S el precio del activo subyacente en el momento de valoración, K es el “strike Price” de la opción, es decir, el precio pactado para la compra-venta del subyacente en el momento de vencimiento del contrato, σ representa la volatilidad o desviación típica, r es la tasa de interés libre de riesgo (interés de bonos de estados, depósitos bancarios, etc.), T es el tiempo desde el momento de la valoración hasta el vencimiento del contrato y N es la función de distribución de un variable aleatoria normal estándar. En torno a N desarrollaremos este trabajo, ya que es la variable que aporta al modelo estudiado la definición matemática de las probabilidades de las variaciones de la cotización. El funcionamiento del modelo es el siguiente, realiza una proyección del precio del activo subyacente del contrato ajustada a la distribución normal considerando la tasa de interés de libre riesgo y la volatilidad implícita. Esto permite definir la cotas máximas y mínimas esperadas de las variaciones del subyacente, el valor de la opción según se trate de una call o put dependerá de la diferencia entre algunas de estas cotas y el strike (Knopp, 2005). Como requerimos de un modelo que represente estadísticamente el valor S (T) del subyacente en el periodo T, debemos utilizar un modelo dinámico para el precio S (t) del subyacente para todos los momentos t ocurridos antes del vencimiento T. El modelo dinámico que introduce la fórmula de Black-Scholes es el movimiento browniano geométrico, o proceso log-normal (Martinez y García, 2003). En definitiva, el modelo Black & Scholes tiene como premisas básicas las siguientes:  Las cotizaciones fluctúan de la misma forma que un movimiento browniano geométrico.  Los mercados de acciones, bonos opciones y cualquier otro tipo de producto financiero susceptible de ser valorado funcionan sin costes de transacción, márgenes de seguridad o impuestos.  Los valores que se negocian son infinitamente divisibles y se puede operar en cualquier momento, es decir, los mercados siempre están abiertos.  El tipo de interés sin riesgo es conocido y constante a lo largo del tiempo.  Los inversores pueden prestar y endeudarse al tipo de interés sin riesgo.  No existe limitación para las ventas al descubierto. Los vendedores al descubierto pueden disponer plenamente de los ingresos de tales ventas y no están obligados a efectuar ningún depósito en garantía.  La opción es de tipo europeo, solo se puede ejercer en el vencimiento.  La acción subyacente no paga dividendos antes de la fecha de vencimiento de la opción. 3.1.El movimiento browniano Es la más importante de todas las premisas del modelo de Black & Scholes ya que considera que la evolución de la cotización de un activo financiero se asemeja a la del movimiento browniano geométrico, por tanto es la que aporta la definición matemática al modelo, la cual es imprescindible para su formulación. La contrastación de esta premisa básica forma parte muy importante en el desarrollo de nuestro trabajo. Para analizar si este modelo es un modelo correcto para la valoración de productos financieros vamos a contrastar algunos de los supuestos teóricos que establece el modelo con la experiencia empírica basándonos en los datos reales de
  • 12. López Caballero Francisco -6- los mercados financieros. Para ello, se realiza un análisis y posteriormente una comparación entre el comportamiento teórico y los datos empíricos observados, es decir, las cotizaciones reales dadas por de cierre diario, semanal y mensual del índice FTSE 100. 3.2.Historia: Origen y autores El movimiento browniano tiene su origen en Inglaterra alrededor de 1827 cuando el médico y botánico escocés Robert Brown (1773-1858) se encontraba realizando investigaciones examinando con el microscopio minúsculas partículas de polen(Brown 1828). Mediante la observación de estas partículas suspendidas en agua y diferentes líquidos comprobó que se desplazaban ininterrumpidamente sin seguir un patrón determinado impulsadas por las continuas colisiones con moléculas colindantes. Sin embargo, no fue hasta 1900 cuando Louis Bachellier para modelizar las fluctuaciones de las acciones de la bolsa de París convirtiéndose en el primer precedente de la aplicación de este modelo al campo de las finanzas en su trabajo Théorie de la Spéculacation (Davis y Etheridge, 2006). A partir de ese momento, el fenómeno del movimiento browniano motivó el interés de numerosos científicos de primer nivel como Albert Einstein en 1905, Norbert Wiener 1923, Paul Lévy 1939 o Samuelson en 1965 aplicándolos a una multitud de disciplinas. Lo más significativo en relación con el desarrollo de este trabajo es que, desde las primeras investigaciones sobre mercados financieros se han tomado las características del movimiento browniano como similares a las de las cotizaciones de los mercados financieros (Venegas, 2008). 3.3.Marco teórico: características y modelos matemáticos Un proceso estocástico es una familia de variables aleatorias parametrizadas por el tiempo t, es decir, para cada t dado, X(t) es una variable aleatoria. El movimiento browniano B(t) es un proceso estocástico que comienza en el origen, es decir, B(0)= 0, y que satisface las siguientes propiedades:  Incrementos independientes: la variable aleatoria B(t)-B(s) es independiente de variable aleatoria B(u)-B(v) cuando t > s ≥ u > v ≥ 0.  Incrementos estacionarios: la distribución de B(t)-B(s) para t > s ≥ 0 es sólo una función de (t-s), y no de t y s por separado.  Incrementos normales: la distribución de B(t)-B(s) para t > s ≥ 0 es normal con esperanza 0 y varianza t-s. La propiedad 3 implica la propiedad 2, por lo que la propiedad 2 es superflua. Sin embargo, si tenemos en cuenta un proceso estocástico L(t) que satisface sólo las dos primeras propiedades, L(t) sería un proceso de Lévy. Por lo tanto, vemos que el movimiento browniano es un caso particular de un proceso de Lévy ( Benth, 2004). A partir de la definición de un movimiento browniano, vemos que B(t) es una variable aleatoria para cada tiempo t. Pero, por otra parte, para cada resultado ω del espacio muestral Ω, tenemos una función del tiempo, B (t, ω). Esta función se conoce como la trayectoria del movimiento browniano. Para cada resultado ω tenemos un camino o trayectoria, que llamamos un camino muestral. Sin embargo, aunque movimiento browniano presenta características muy cercanas a las de las cotizaciones de los activos financieros, es incapaz de representar correctamente el comportamiento de todas las variables que influyen en la variabilidad de los precios. Esto supone un primer argumento para realizar una crítica al modelo Black & Scholes, ya que el movimiento browniano forma parte del núcleo de éste y de otros modelos financieros y económicos.
  • 13. TFG-ECO. Un análisis estadístico del FTSE 100 -7- 3.4.Simulación del movimiento browniano. Utilizando como herramienta el software estadístico R se simulará un movimiento browniano estándar para observar que se parece a las variaciones en las cotizaciones de los mercados financieros. Para ello generamos una muestra aleatoria de distribución N (0,1) que simula las variaciones entre periodos de un hipotético índice, en escala logarítmica, a los cuales llamaremos logreturns. La cotización en los periodos se calcula como la suma acumulada de los logreturns, por tanto la gráfica resultante aún está representada en escala logarítmica de tratarse de un mercado financiero real. La razón fundamental para introducir los logreturns es disponer de la propiedad de aditividad, lo cual permite realizar la suma acumulada de toda la serie de datos, de haber sido en rendimientos simples (tasas de variación), no podríamos haber realizado la representación mediante suma acumulada. El argumento matemático en que nos basamos es el siguiente: el valor de la tasa de variación de un periodo a otro de una serie se aproxima al valor de la variación de un periodo a otro de la misma serie en escala logarítmica (logaritmo natural): ( ) Donde es el valor de la cotización del índice en el momento i, y debe cumplirse que . En la figura 1, podemos observar las gráficas de los movimientos brownianos generados, con los periodos representados en el eje horizontal y las cotizaciones en el eje vertical. A golpe de vista podemos comprobar que estos movimientos simulados se asemejan a las oscilaciones de los valores de cualquier mercado financiero real. Figura 1. Tres trayectorias del movimiento browniano estándar, el el eje horizontal viene representado el tiempo, en el vertical, las cotizaciones. 0 100 200 300 400 500 -30-20-100102030
  • 14. López Caballero Francisco -8- 4. DATOS EMPÍRICOS DEL FTSE 100 En esta sección y las sucesivas se usan los datos empíricos del índice FTSE100 (Financial Times Stock Exchange) del mercado de valores de Reino Unido recogidos desde el 1 de Enero del año 2000 hasta el 31 de Diciembre año 2013. Las cotizaciones se refieren a precios de cierre en el día, semana o mes obtenidos a través de la página web www.finance.yahoo.com. Las cotizaciones aparecen expresadas en puntos básicos. En la figura 2, se han representado los datos de cierre diarios del FTSE 100 desde el 01/01/2000, hasta el 31/12/2013 podemos apreciar que el movimiento browniano representado en la Figura 1 se asemeja a las variaciones de los precios de los mercados financieros y de sus índices agregados. En el eje horizontal está representado el tiempo y en el eje vertical, las cotizaciones: Figura 2. Gráfico cotización diaria del FTSE 100, datos diarios al cierre. Fuente: FTSE.com. Datos del 01/01/2000 a 31/12/2013. Seguidamente, se han estimado los parámetros de la distribución Normal µ y como la media y la desviación típica de la muestra, estos vienen adjuntos en la siguiente tabla: Media D.Típica C.V. Me Máx Min Diario -0.00000072 0.01247 0 0.0938 -0.0926 Semanal 0.0000505 0.02568 0.0018 0.1258 -0.2363 Mensual 0.0004423 0.04186 0.007 0.0829 -0.1395 Tabla 2: Media, desviación típica, coeficiente de variación, Mediana, Máximo y Mínimo obtenidos a partir de los logreturns del FTSE100.Fuente: FTSE.com. Datos de la serie diaria, semanal y mensual de 1/1/2000 a 31/12/2013 2000 2005 2010 4000500060007000
  • 15. TFG-ECO. Un análisis estadístico del FTSE 100 -9- Si observamos el coeficiente de variación, una medida de dispersión relativa, medida como el cociente entre la desviación típica y la media aritmética del conjunto de datos, nos muestra que la volatilidad es menor cuanto mayor son los intervalos temporales t de la muestra Llegados a este punto, se puede establecer que las cotizaciones de un mercado no son recogidas de forma adecuada por el movimiento browniano, en principio, los precios no parten de cero, además las desviaciones típicas no tienen por qué ser proporcionales al tiempo. El movimiento browniano geométrico se obtiene a partir de una transformación a exponencial de este mismo movimiento estándar. Su expresión matemática es la siguiente: Donde μ es la variación media de la cotización del subyacente (parámetro de tendencia) y σ su desviación típica (parámetro de volatilidad), S(0) es el precio inicial conocido de la cotización y B(t) es el movimiento browniano estándar ( Benth, 2004). Por tanto, el cociente entre dos periodos será calculado como: Para la elaboración de la figura 3, se ha generado una muestra de valores aleatorios de datos para una distribución normal con parámetros estimados a través de nuestra muestra de cierres en periodos de un día y un mes del FTSE100. Se ha llamado S0 a la cotización del primer instante temporal de cada muestra y se ha realizado sobre esa cotización la suma acumulada de los valores aleatorios, por último hemos cambiado la escala y la hemos hecho exponencial a la suma acumulada de dichos valores.
  • 16. López Caballero Francisco -10- Figura 3: movimiento browniano generado a partir de datos de cierre diarios(superior) y mensuales (inferior) del FTSE 100 con datos del 01/01/2000 al 31/12/2013 5. AGREGACIÓN GAUSSIANA A través de la observación de la naturaleza, se ha constatado que existen multitud de variables asociadas a fenómenos naturales que siguen una distribución Normal, como puede ser la estatura, el coeficiente intelectual, etc. Según el Teorema Central del Límite (García Barbancho,1992) cualquier media tipificada con n suficientemente grande se aproxima a la distribución Normal estándar N(0,1). Comúnmente se acepta que para n mayor o igual que 30 el parecido entre las funciones de distribución de cualquier media tipificada y la distribución Normal estándar N(0,1) es bastante apreciable. La Agregación Gaussiana es un fenómeno según el cual la densidad de una variable empírica tiende a converger a la de una distribución Normal a medida que se van ampliando los intervalos de tiempo entre observaciones y por tanto sus funciones de densidad se parecen más. En este apartado se analiza qué grado de ajuste hacia la distribución Normal tiene la muestra empírica del FTSE100 y también si ocurre el 2000 2005 2010 4000500060007000 2000 2005 2010 5600580060006200640066006800
  • 17. TFG-ECO. Un análisis estadístico del FTSE 100 -11- fenómeno de la Agregación Gaussiana a través un contraste de hipótesis y la representación gráfica de las densidades empíricas y teóricas normales. En lo relativo a la agregación Gaussiana, se ha de tener presente que debido a la propiedad aditiva que proporciona la escala logarítmica a las variaciones entre periodos (logreturns), el valor de la variable en un determinado intervalo puede obtenerse como la suma de los valores de la variable en cada intervalo en los que la primera se divide, por ejemplo, para el dato semanal: ∑ Y para el mensual: ∑ 5.1. TEST DE NORMALIDAD Los test de normalidad son contrastes de hipótesis en los que la hipótesis nula (H0) es que la distribución que ha generado la muestra se ajusta a la de una distribución Normal, y la hipótesis alternativa (H1) es que la distribución no se ajusta a una distribución Normal. Para considerar como válida la hipótesis nula es necesario que los parámetros calculados tomen unos valores determinados según el tipo de prueba o test de normalidad. 5.1.1. Contraste de Kolmogórov-Smirnov (Corrección de Lilliefors) El contraste de Kolmogorov-Smirnov compara los valores de una distribución empírica con los que se derivarían de la distribución supuesta como hipótesis nula. La corrección de Lilliefors es una mejora introducida para el caso de la distribución Normal. Por tanto, la hipótesis nula es que la distribución de los log-returns del FTSE100 sea Normal (H0= La distribución de la muestra es normal).El estadístico de Kolmogorov-Smirnov se basa en la máxima distancia observada entre ambas funciones de distribución teórica y observada y es denominado como D (Ruppert, 2004), el valor hasta donde se debe bajar el nivel de significatividad para no tener que rechazar H0 viene determinado por el p-valor, de forma típica y para cualquier test el p- valor tiene que ser menor o igual que 0,05 para que la hipótesis nula sea rechazada al nivel de significatividad generalmente aceptado del 5% (Lillefors, 1967): Donde es el i-ésimo valor observado en la muestra (cuyos valores se han ordenado de menor a mayor), es un estimador de probabilidad de observar valores menores o iguales que y es la probabilidad de observar valores menores o iguales que en una distribución Normal con media y desviación típica estimada a partir de la muestra. D p-valor Diario 0.9778 2.2e-16 Semanal 0.9661 2.2e-16 Mensual 0.8808 2.2e-16 Tabla 3: contraste de Kolmogorov-Smirnov y respectivos p-valores.
  • 18. López Caballero Francisco -12- La interpretación de estos resultados es la siguiente. Cuanto más se aproxime D a 0 mayor será el grado de ajuste de normalidad de la muestra y viceversa. El valor de los estadísticos y de los p-valores que podemos ver no cumplen los requisitos que permitan dar por válida H0 al 5% de significatividad, por lo tanto, podemos decir que basándonos en esta prueba, los logreturns del FTSE 100 no se ajustan a la distribución normal en ninguna de las muestras con distintos intervalos de tiempo. Sin embargo, podemos observar en cierta medida el fenómeno de la agregación gaussiana, ya que a medida que ampliamos los intervalos de tiempo, se va produciendo un mayor grado de ajuste a la distribución Normal, El estadístico D se acerca más a 0. 5.2. COMPARACIÓN GRÁFICA DE DENSIDADES En este apartado se realiza una comparación a través de las gráficas de la función de densidad teórica normal con parámetros estimados a partir de la muestra de logreturns del FTSE100 bajo los supuestos del modelo de Black & Scholes (línea discontinua) y la densidad empírica observada (línea continua) para las series temporales diaria, semanal y mensual respectivamente. En esta representación gráfica se observa, al igual que en el contraste anterior, el efecto de la agregación Gaussiana, ya que cuanto mayor son los intervalos de tiempo entre observaciones, más se parecen las dos curvas representadas. Este fenómeno se hace patente en la progresiva convergencia de los máximos máximos de las curvas de densidad empírica y teórica, esto es, disminución progresiva del exceso de curtosis de la densidad empírica. Figura 4. Densidades teóricas normales (línea discontinua) y empíricas (línea continua) del FTSE 100 (de izquierda a derecha) diarias, semanales y mensuales. 5.2.1. Colas pesadas y medidas de forma Como podemos ver, es fácil criticar la distribución normal de los logreturns, ya que subestima la probabilidad de sucesos extremos, en este caso las variaciones de gran tamaño en el índice estudiado, es decir infravalora los valores de la variable en las colas de la función de densidad. Para analizar, el error cometido por la normal en el peso de las colas utilizaremos el Valor en Riesgo (Value at risk), posteriormente las medidas de formas asimetría y curtosis y finalmente representaremos las curvas de densidad de la figura anterior en escala logarítmica para observar mejor las colas. 5.3. VALUE AT RISK Este es un método muy utilizado en el campo de las finanzas y seguros. Se trata de un valor extremo que en caso de ser alcanzado o superado generaría importantes pérdidas para el agente económico afectado, para un determinado horizonte de tiempo en circunstancias normales de mercado. (Venegas , 2008). -0.05 0.00 0.05 01020304050 -0.15 -0.10 -0.05 0.00 0.05 0.10 0.15 05101520 -0.15 -0.10 -0.05 0.00 0.05 0.10 0.15 0246810
  • 19. TFG-ECO. Un análisis estadístico del FTSE 100 -13- Este método también utiliza como premisa que las variaciones entre periodos se ajustan a una distribución normal, es por eso que vamos a aplicarlo en las distribuciones teóricas y empíricas para comprobar en qué grado la distribución normal subestima la probabilidad de sucesos extremos. Para ello calculamos los percentiles de orden 1%,2%,98% y 99%, los cuales se encuentran en mejor posición para reflejar las colas. Los resultados de este método se adjuntan en la tabla 4: Percentil Empírico Teórico 0.01 -0.03598001 -0.02903750 0.02 -0.02804833 -0.02563577 0.98 0.02669749 0.02562126 0.99 0.03266433 0.02903750 Tabla 4. Valores de los percentiles de la serie diaria empírica y teórica del FTSE100. Con estos datos, podemos comprobar que la densidad probabilística de los extremos en la distribución teórica es menor que la de la distribución empírica. Esto nos dice de que la distribución empírica del FTSE 100 genera colas más pesadas que la distribución normal y por tanto, se observa una mayor probabilidad de sucesos extremos en los datos empíricos que la que predice el modelo, lo que nos indica que no se está valorando correctamente el riesgo, lo que es fundamental para el análisis de los mercados financieros. Además, estos datos nos revelan que existe asimetría en la distribución empírica, a diferencia de lo observado en la normal estimada, que se hace más patente en los percentiles extremos. 5.4. DENSIDADES EN ESCALA LOGARÍTMICA En la figura 5, podemos ver representadas las gráficas de la figura 3 pero con escala logarítmica en el eje de ordenadas, aquí podemos ver como la densidad teórica (línea discontinua) subestima la probabilidad de cambios extremos en el índice, quedando esta por debajo de la densidad empírica (línea continua) en las colas : Figura 5.Densidades teóricas normales (línea discontinua) y empíricas obtenidas (línea continua) para las series (de izquierda a derecha) diarias, semanales y mensuales del FTSE 100 y escala logarítmica. 5.5. TEST JARQUE-BERA: MEDIDAS DE FORMA Este test es un contraste de normalidad basado en el estudio de las medidas de forma (asimetría y curtosis). Consiste en examinar las discrepancias de la distribución de la muestra observada respecto de la de la distribución que se le asocia en la hipótesis nula, que es la distribución Normal. -0.06 -0.04 -0.02 0.00 0.02 0.04 0.06 -4-2024 -0.10 -0.05 0.00 0.05 0.10 -4-2024 -0.2 -0.1 0.0 0.1 -2-10123
  • 20. López Caballero Francisco -14- 5.5.1. Asimetría Este es un fenómeno estadístico a través del cual los valores observados se desvían de la media con exceso por un lado y defecto hacia el otro lado de la función de densidad, es decir, la variable toma valores más extremos sobre o por debajo de la media. El coeficiente de asimetría se suele denominar como g1, su valor es 0 en distribuciones simétricas por tanto, si es mayor que 0 es asimetría positiva, es decir los valores se alejan más sobre la media, y si es menor que 0, indica asimetría negativa. Cuanto más alejado de 0 sea g1 más alejada estará la muestra de la situación simétrica. En cualquier caso, la detección de asimetría implica la consideración de no normalidad. Para considerar si el valor del estadístico está significativamente lejano o cercano a cerno se necesita determinar el nivel de significación o conocer el p-valor. La fórmula más utilizada para calcular el estadístico g1 es el coeficiente de asimetría de Fisher basado en los momentos de orden 3 respecto a la media y la desviación típica (Martín-Pliego, 2007): Siendo el tercer momento central, y la desviación típica: ∑ ̅ , ∑ ̅ ⁄ Los valores y los p valores obtenidos aparecen reflejados en la tabla 4: SERIE p-valor Diaria -0.1531119 0.000158 Semanal -1.115023 0 Mensual -0.7004345 0.419219 Tabla 5: Coeficiente de asimetría de Fisher y significatividad. Los datos obtenidos nos indican que todas las distribuciones son asimétricas a la izquierda, como indican los datos del estadístico y sus p-valores, todos menores que el valor crítico del 5%, exceptuando la serie mensual, cuyo p-valor supera con creces el 5%. En cuanto al fenómeno de agregación gaussiana, solo podemos observar este en base a la menor asimetría de la serie mensual en comparativa con la serie semanal. 5.5.2. Curtosis o apuntamiento La curtosis es un parámetro de forma que estudia la proporción de la varianza que se explica por la combinación de datos extremos respecto a la media en contraposición con los que están poco alejados de esta misma. Un exceso de curtosis se materializa en una mayor concentración de datos cerca de la media de la distribución junto con alta concentración de datos muy alejados de estas. La curtosis de una distribución normal es 3, por eso el estadístico utilizado para contrastar la normalidad es el exceso de curtosis g2 mediante el momento de orden 4 respecto de la media y la desviación típica. Al igual que ocurre con la asimetría la aceptación del estadístico como significativamente lejano o cercano a cero vendrá dada por el nivel de significatividad (Martín-Pliego, 2007): Donde es el tercer momento central y la desviación típica: ∑ ̅ ∑ ̅
  • 21. TFG-ECO. Un análisis estadístico del FTSE 100 -15- En la tabla 6 vemos como las series diaria y semanal y mensual reflejan un exceso de curtosis o apuntamiento que va diluyéndose a medida que aumentan los intervalos de tiempo entre los logreturns. Este resultado nos puede llevar a pensar en el fenómeno de la agregación gaussiana. El p-valor supera el valor crítico de 0.05 en la serie mensual, mientras que es muy cercano a 0 en las demás series. La curtosis es menor en la serie mensual que en la semanal, lo que nos permite aceptar cierto nivel de agregación gaussiana. Serie p-valor Diario 9.235182 0 Semanal 14.94744 0 Mensual 3.696271 0.06625882 Tabla 6. Curtosis y sus correspondientes p-valores 5.5.3. Test Jarque-Bera Es un test exclusivo para la distribución normal, basado en el ajuste entre los parámetros de asimetría y curtosis de la distribución empírica y una distribución normal teórica. El estadístico se calcula con la siguiente fórmula (Bera; Jarque, 1980): ( ) Serie X-squared p-valor Diaria 5928.504 2.2e-16 semanal 4492.97 2.2e-16 mensual 17.0286 0.0002006 Tabla 7. Test de Jarque-Bera y p-valores para las series diarias, semanales y mensuales del FTSE 100. Observando los datos podemos constatar que en base a este test, la distribución diaria y semanal no sigue una distribución normal, estando algo más cercana para la muestra mensual aunque también se rechaza que siga una distribución una distribución normal. Basándonos en el análisis de los estadísticos se puede afirmar que la muestra empírica de los datos presenta el fenómeno de la agregación gaussiana, al aumentar los niveles de confianza a medida que los intervalos temporales son mayores. 6. LA DISTRIBUCIÓN NORMAL INVERSA GAUSSIANA Como podemos comprobar en base al análisis realizado anteriormente, la distribución normal no modeliza de forma fiel las variaciones de los logreturns de las cotizaciones de los activos de la muestra, los datos empíricos reflejan asimetría y un exceso de curtosis o apuntamiento, además las colas de la función de densidad generalmente son más pesadas revelandose la información de que la distribución normal infravalora la probabilidad de variaciones de carácter extremo, en la cotización del índice estudiado. Como alternativa, se expone y se utiliza un modelo alternativo, introducido por Nielssen Brandorf en 1977 para modelizar la distribución del tamaño de los granos de arena en las playas danesas. Esta distribución es la Normal Inversa Gaussiana o NIG
  • 22. López Caballero Francisco -16- para abreviar, que posteriormente a su introducción se aplicó al campo de las finanzas y es sugerida por diversos autores como una alternativa a la distribución normal (Venegas, 2008). Utilizando el programa estadístico R se estudian los parámetros de este modelo y se analiza gráficamente la distribución para contrastar si este es más apropiado para reflejar las variaciones de los activos en los mercados financieros. Esta distribución tiene 4 parámetros, α, β, µ, δ. El parámetro µ es de posición central, mientras que la asimetría de la distribución NIG viene determinada por β, es decir, si β>0, la distribución es asimétrica a la derecha y si β<0 es asimétrica al a izquierda. El caso de β=0 corresponde a una distribución NIG simétrica. El parámetro de escala es δ, el cual representa una función muy similar que la desviación típica en la distribución normal, y por último α modeliza el peso de las colas de la distribución. La densidad de probabilidad de esta distribución es: √ √ Donde k es la constante de escala = √ y es la función de Bessel modificada(O'neill, 2008) de tercera clase con índice 1, es decir: ∫ ( ) De la definición de la función de densidad se deduce que los parámetros de densidad y deben satisfacer | | Además >0. Si la distribución de una variable aleatoria L es una NIG escribimos L~NIG . La media y la varianza de L vienen dadas por: [ ] √ [ ] ⁄ En la figura 6 se han representado 6 ejemplos de distribución NIG con diferentes valores de los parámetros. Las 4 superiores están centradas en el origen con un parámetro de escala δ=0,015. La variación de las colas se puede observar en las gráficas cuando =30, las dos gráficas superiores de la derecha las colas tienen una forma hiperbólica y para =150, gráficas de la izquierda son casi lineales. Cuando utilizamos escala logarítmica, en las gráficas centrales con =30 a la izquierda, y =150 a la derecha la densidad de la normal con media y varianza iguala a la de la NIG tiene siempre colas en forma parabólica. Las dos gráficas inferiores, tienen como parámetros =30, y en la izquierda, y en la derecha. Se ve en estas gráficas como al variar , las curvas de la NIG se vuelven asimétricas. Si es positivo, la cola de la izquierda de la línea continua (NIG) se asemeja más a la curva discontinua (Normal), ocurriendo lo contrario si toma un valor negativo. No debemos olvidar sin embargo lo que ocurre con , como podemos ver en las dos gráficas superiores de la derecha, al pasar de un valor 30 a 150, las colas se vuelven más lineales, mientras que en las demás gráficas, la curva en sus extremos está por encima de la curva de la distribución normal.
  • 23. TFG-ECO. Un análisis estadístico del FTSE 100 -17- Figura 6. Comparativa de las gráficas de la NIG. Fila superior ( , izquierda y =150, derecha), fila intermedia, ídem que superior con escala logarítmica todas con =0. Las inferiores, de izquierda a derecha, y . Dado que la densidad de la distribución NIG es conocida, se puede estimar por máxima verosimilitud sus parámetros, sin embargo, cómo podemos ver en la expresión esto es un problema que no permite solución explícita como en el caso de la distribución normal. Terminamos esta sección mencionando un resultado de la convolución de variables aleatorias NIG independientes. Si X e Y son dos variables NIG independientes con parámetros (α, β, μx, δx) y (α, β, μy, δy) respectivamente, entonces X + Y es una NIG distribuida con parámetros (α, β, μx + μy, δx + δy). Por tanto, La distribución NIG tiene la propiedad de la convolución de las distribuciones normales, siempre y cuando α y β sean iguales. -0.05 0.00 0.05 0510152025 -0.04 -0.02 0.00 0.02 0.04 010203040 -0.10 -0.05 0.00 0.05 0.10 -2-101234 -0.15 -0.10 -0.05 0.00 0.05 0.10 0.15 -15-10-50 -0.05 0.00 0.05 0510152025 -0.05 0.00 0.05 0510152025
  • 24. López Caballero Francisco -18- 6.1. ESTIMACIÓN DE LOS PARÁMETROS NIG A continuación estimamos los parámetros de la NIG por el método de la máxima verosimilitud. Este método consiste en seleccionar el valor del parámetro que parece más coherente o verosímil a partir de la muestra obtenida. Es decir, si la muestra es se selecciona el valor del parámetro que maximiza la expresión | para la muestra obtenida. es la función de máxima verosimilitud del parámetro buscado para la muestra en cuestión, donde representa el parámetro a estimar. Lo que en definitiva se hace para estimar un parámetro por el método de máxima verosimilitud es seleccionar como más convincente el valor del parámetro donde la densidad de la muestra es mayor. La ecuación que hay que resolver para calcular el valor del parámetro es Si es un parámetro de dimensión , entonces habrá que resolver el sistema de k ecuaciones con k incógnitas donde j = 1,2,…. k (Alvarado, 2008). Los parámetros estimados para la distribución NIG aparecen reflejados en la tabla 8, a partir de estos datos podemos comparar la densidad con la de la distribución normal estimada y la de la muestra empírica. Serie α β diaria 57.05522 -4.936 0.0087785 0.00075506 semanal 40.19202 -7.77744 0.0232595 0.004638111 mensual 50.63565 -24.4570 0.0604569 0.03379096 Tabla 8. Parámetros de la NIG estimados a partir de los logreturns diarios, semanales y mensuales del FTSE100. En la figura 7 presentamos la NIG ajustada (línea discontinua) junto con la densidad empírica (línea continua) y la distribución normal estimada (línea discontinua) para datos diarios, semanales y mensuales. Se observa como la distribución se ajusta a la empírica tanto las colas como en la zona central, a diferencia de lo que ocurría con la distribución normal. Sin embargo, al contrario que ocurría con el modelo de Black & Scholes, este mejor ajuste va desapareciendo si aumentamos los intervalos de tiempo. Por tanto, la NIG recoge mejor la distribución de la muestra cuando trabajamos con intervalos pequeños de tiempo. En cuanto a las colas, a medida que aumentan los intervalos temporales de las muestras todas las densidades se van pareciendo más a la normal. Sin embargo, la distribución NIG siempre será la más flexible por su mayor número de parámetros y flexibilidad, aunque la normal se acercará mucho o la igualará, nunca superará la precisión de la NIG.
  • 25. TFG-ECO. Un análisis estadístico del FTSE 100 -19- Figura 7: Gráficos diarios semanales y mensuales, (de izquierda a derecha) de las densidades de la NIG (línea punteada), junto con las densidades empíricas (línea continua) y normal (línea discontinua), elaboradas a partir de los logreturns del FTSE100. 7. ALTERNATIVA AL MODELO BLACK & SCHOLES Como ya se ha visto, la distribución normal, al contrario que la NIG, no es un buen modelo para los logreturns de los activos. En esta sección se va a presentar una alternativa al modelo de B-S que se adapta mejor a los logreturns observados, haciendo uso de la distribución NIG. Se considera una evolución de los precios de forma exponencial S(t) = S(0) exp(L(t)), donde L(t) es un proceso estocástico con incrementos independientes y estacionarios, siendo así un proceso de Lévy. Por otra parte, en lugar de suponer incrementos normales, asumimos que L(t) -L(s) sigue una distribución NIG para todo t > s ≥ 0. El proceso resultante se denomina proceso de Lévy gaussiano inverso normal. Transformando los precios S(t) a logreturns con incrementos de tiempo iguales a 1, se obtiene: X(t) = L(t) – L(t-1) Las variables aleatorias X(1), X(2), ... son independientes y siguen una distribución NIG, ya que L(t)-L(t-1) tiene la misma distribución que L(1). Al igual que la sección anterior, los parámetros α, β, μ y δ de L(1) se pueden estimar a partir de los log-returns observados. Utilizando la propiedad de convolución de las distribuciones NIG, se tiene que L(t) es de nuevo una variable NIG con parámetros α, β, μt y δt. A diferencia del movimiento browniano, el proceso de Lévy gaussiano inverso normal tiene caminos muestrales discontinuos. En consonancia con lo visto en la secciones anteriores, un proceso de Lévy gaussiano inverso normal parece más adecuado que un modelo de B-S para describir los precios de un activo financiero. Sin embargo, el análisis de este proceso discontinuo es mucho más complicado que el de un modelo de B-S y cae fuera de los objetivos del presente trabajo. 8. AUTOCORRELACIONES Si observamos la figura 8, donde se representan los logreturns diarios del FTSE100 podemos ver que se observan periodos en los que existe mayor volatilidad en contraste con periodos en los que las variaciones que se producen son más pequeñas. Esto nos puede llevar a sospechar que los logreturns no sean totalmente -0.06 -0.04 -0.02 0.00 0.02 0.04 0.06 01020304050
  • 26. López Caballero Francisco -20- independientes entre sí como propone el modelo de BS, es decir, que existe cierto nivel de dependencia por tramos temporales. Para contrastar la hipótesis de independencia que plantea el modelo de Black & Scholes se realiza un análisis gráfico de las autocorrelaciones entre las variaciones de esta, para contrastar si las variaciones presentan algún nivel de dependencia: Figura 8: Logreturns diarios del FTSE100, serie diaria desde 01/01/2000 hasta el 31/12/2013 Si consideramos como una serie temporal cualquiera de logreturns y asumiendo que es estacionaria, es decir, el valor esperado de no depende del tiempo y la covarianza de y solo depende del intervalo de tiempo s se tiene la siguiente expresión: Para una función donde , la autocorrelación con s retardos viene dada por la fórmula: ( ) , donde es el valor de la variable X en el momento t. La autocorrelación mide el sentido y la intensidad con el que un l logreturn depende de los anteriores. Por tanto, la autocorrelación puede servirnos como herramienta para predecir los precios futuros (Benth, 2004). En la figura 9, representamos en la parte superior las autocorrelaciones sobre un eje vertical con máximo 1 en las gráficas de la izquierda y un eje vertical ajustado a los máximos y mínimos observados en las de la derecha, se deduce que los logreturns no están correlacionados, ya que la mayoría están en la banda de confianza al 95% centrada en el cero. 2000 2005 2010 -0.10-0.050.000.050.10 Index XFTSED
  • 27. TFG-ECO. Un análisis estadístico del FTSE 100 -21- Sin embargo en las gráficas de las dos filas inferiores, donde se utiliza el valor absoluto de los logreturns y los logreturns al cuadrado, se observa que todas son positivas y que la gran mayoría se encuentran alejadas significativamente de 0, es decir, fuera de la banda de confianza al 95%. Además observamos un descenso progresivo en el valor de la autocorrelación, lo que significa que la correlación entre dos tamaños de logreturns es mayor cuanto menor es la distancia temporal entre ellos. En conclusión, aunque no parece que exista autocorrelación entre las variaciones del FTSE 100, si las hay considerando el tamaño del índice a través del valor absoluto o delsu cuadrado. Se prueba por tanto que existe cierto nivel de autocorrelación en el tamaño de los logreturns diarios del FTSE 100, lo cual contradice el planteamiento del modelo de Black & Scholes basado en las características del movimiento browniano geométrico que implícitamente supone que los logrenturns son independientes tanto en sus valores como en sus tamaños.
  • 28. López Caballero Francisco -22- Figura 9. Autocorrelaciones del FTSE 100. En la columna de la izquierda el máximo es 1, en la columna de la derecha, los máximos y mínimos dependen del valor de las autocorrelaciones de los logreturns. De arriba abajo, se muestra la autocorrelación de los logreturns, la autocorrelación de estos en valores absolutos y la autocorrelación de los mismos al cuadrado. 0 50 100 150 0.00.20.40.60.81.0 Lag ACF 0 50 100 150 -0.050.000.05 Lag ACF 0 50 100 150 0.00.20.40.60.81.0 Lag ACF 0 50 100 150 0.00.10.20.3 Lag ACF 0 50 100 150 0.00.20.40.60.81.0 Lag ACF 0 50 100 150 0.00.10.20.3 Lag ACF
  • 29. TFG-ECO. Un análisis estadístico del FTSE 100 -23- 9. CONCLUSIONES En el presente trabajo se ha puesto de manifiesto las diferencias existentes entre el modelo teórico algunas consecuencias que se derivan de la adopción del modelo de Black & Scholes para dinámica de las cotizaciones del índice FTSE 100 y la observación de datos empíricos. Por tanto, supone una crítica a las premisas básicas del modelo ya que algunas propiedades que de él se desprenden, no son avaladas por la observación empírica en base a los datos del FTSE100. Se ha probado por tanto que el movimiento browniano geométrico como modelo para los logreturns no resulta adecuado por varios motivos. Además existen modelos como el basado en la distribución normal inversa gaussiana que modelizan mejor los logreturns del FTSE100. En primer lugar, la densidad normal estimada, muestra un comportamiento muy diferente a la densidad observada a partir de los datos, ya que en la distribución con datos empíricos las funciónes de densidad revelan asimetría, exceso de curtosis y colas pesadas. Como consecuencia del fenómeno de las colas pesadas, podemos ceñirnos a la quiebra del fondo de inversión fundado por Merton y Scholes el cual utilizando su fórmula de valoración que infravaloró la probabilidad de grandes cambios en el mercado, como los provocados por el default ruso y las crisis financieras asiáticas, lo que acabó en un rescate del fondo y su posterior desaparición. Sin embargo, se observa que a medida que aumenta el tiempo entre observaciones, las dos distribuciones se van asemejando lo que nos indica que existe el fenómeno de agregación gaussiana, algo que se observa también en el test de Jarque-Bera, ya que el p-valor es mayor para los datos mensuales. Además el test de normalidad realizado muestra que la distribución de las variaciones de las cotizaciones entre intervalos no sigue una distribución normal, como se deriva del modelo de Black and Scholes. Seguidamente, se propone una distribución más flexible que permita explicar de una forma más fiel el comportamiento de los logreturns observados del FTSE100, esta es la normal inversa gaussiana, que en base a lo observado, parece ajustarse mejor al comportamiento descrito por los logreturns del FTSE100. Sin embargo, el planteamiento de un modelo para la evolución temporal de los valores de un activo que plantee los logreturns siguiendo una NIG, nos lleva a la consideración de procesos estocásticos de Lévy, los cuales son más difíciles de analizar y no entran en los objetivos del presente trabajo Finalmente, bajo el modelo Black & Scholes las autocorrelaciones de los logreturns no deben ser significativamente diferentes de cero, ya que estos son independientes. En cierta medida, podemos ver esto con los datos del FTSE100 pero en discrepancia, observamos que si utilizamos valores absolutos o cuadrados, aparece una correlación significativa incluso para grandes retardos, mostrando una dependencia entre los tamaños de los logreturns del FTSE100. Este fenómeno de dependencia, lo convierte en una herramienta útil para la gestión de carteras y para estrategias de arbitraje.
  • 30. López Caballero Francisco -24- 10. BIBLIOGRAFÍA Jorge Andrés Alvarado (2008): “Fundamento de Inferencia Estadística”, Editorial Pontificia Universidad Javeriana, Bogotá D.C. Anil K. Bera; Carlos M. Jarque (1980): “Efficient tests for normality, homoscedasticity and serialindependence of regression residuals”, en Elsevier B.V.: Economics Letters, Canberra, Volume 3, Issue 6, 203-299. Barndorff-Nielsen, O.E.; Halgreen, C. (1977): Infinite Divisibility of the Hyperbolic and Generalized Inverse Gaussian Distributions. University of Aarhus, Dinamarca. Black, F.; Scholes, M. (1973): “The pricing of Options and Corporate Liabilities”. Journal Of Political Economy, 81, 637-654. Brown, R. (1828), "A brief account of microscopical observations made in the months of June, July and August, 1827, on the particles contained in the pollen of plants; and on the general existence of active molecules in organic and inorganic bodies." Phil. Mag. 4, 161- 173. Davis, M.; Etheridge, A. (2006): “Louis Bachelier´s Theory of $peculation”. Princeton University Press, Estados Unidos. www.FTSE.com http://www.ftse.com/Indices/UK_Indices/Constituents_and_Weights.jsp Fred Espen Benth (2004): “Statiscal analysis of data from the stock market”, en Springer:Option Theory with Stochastic Analysis, Berlin, Cap 1-2. García Barbancho, Alfonso. (1992): Estadística teórica básica: probabilidad y modelos probabilísticos. Ariel, Barcelona. Alan Greenspan (2007): “The Age of Turbulence: Adventures in a New World”, The Penguin Press, USA. José Hernandez Alonso (1995): “Contraste de las hipótesis sobre perturbación aleatoria”, en ESIC editorial: Introducción a la Econometría, Madrid, 157-180. Roberto Knop (2005): “Modelos básicos de valoración y griegas”, en Ediciones Empresa Global: Manual de Instrumentos Derivados. Tres décadas de Black-Scholes, Madrid, 125- 154. O`Neil, P. (2008): “Matemáticas avanzadas para ingenieria”. Cengage Learning Editores, México D.F. Lillefors, H. W. (1967).”On the Kolmogorov-Smirnov Test for Normality with Mean and Variance Unknow. Journal of American Statiscal Association, Vol. 62, No. 318, pp. 399-402. Francisco Javier Martín-Pliego López (2007): “Introducción a la Estadística Económica y Empresarial. Teórica y Práctica”, Editorial Thomson, Madrid. José Javier Nuñez Velazquez (2011): “Análisis Dinámico Mediante Procesos Estocásticos Para Actuarios y Finanzas”, Universidad de Alcalá (Servicio de publicaciones), Alcalá de Henares. Emmanuel Paradis (2003): “R para Principiantes”, Institut des Sciences de l’Évolution,Montpellier. Venegas Martínez.F (2008): “Riesgos Financieros y Económicos. Productos derivados y decisiones económicas bajo incertidumbre”, Cengage Learning Editores, México, D.F.
  • 31. TFG-ECO. Un análisis estadístico del FTSE 100 -25- 11. ANEXO Para la realización de este trabajo se ha utilizado el software estadístico R (Paradis (2003) es un manual básico) el cual se puede obtener del sitio web www.r-project.org. A continuación, se muestran y se comentan las instrucciones usadas para llevar a cabo el estudio empírico presentado. Simulación del movimiento browniano estándar: set.seed (23) BA <- cumsum(rnorm(500,0,1)) par(mar=c(4,4,1,1)) plot(x=c(0:500),y=c(0,BA),type="l",lty=1,xlab="",ylab="",ylim=c(-38,38)) BB <- cumsum(rnorm(500,0,1)) lines (x=c(0:500),y=c(0,BB),type="l",lty=2) BC <- cumsum(rnorm(500,0,1)) lines (x=c(0:500),y=c(0,BC),type="l",lty=3) Descarga de las cotizaciones diarias, semanales y mensuales de la página web http://es.finance.yahoo.com/ y representación del gráfico de las cotizaciones diarias: library("tseries") library("zoo") FTSEd <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12- 31", compression = "d", quote = "Close") FTSEw <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12- 31", compression = "w", quote = "Close") FTSEm <- get.hist.quote(instrument = "^FTSE", start = "2000-01-01", end = "2013-12- 31", compression = "m", quote = "Close") par(mar=c(4,4,2,1)) plot(FTSEd,xlab="",ylab="",type="l",lty=1) nd=length(FTSEd); nw=length(FTSEw); nm=length(FTSEm); Logreturns del FTSE100, diarios, semanales y mensuales: XFTSED <- diff(log(FTSEd)) XFTSEW <- diff(log(FTSEw)) XFTSEM <- diff(log(FTSEm)) Obtención de la media, desviación típica, mediana, máximos y mínimos de los logreturns diarios, semanales y mensuales del FTSE100: mud <- mean(XFTSED) sigmad <- apply(XFTSED,2,sd) muw <- mean(XFTSEW) sigmaw <- apply(XFTSEW,2,sd) mum <- mean(XFTSEM) sigmam <- apply(XFTSEM,2,sd) median(XFTSED); max(XFTSED); min(XFTSED) median(XFTSEW); max(XFTSEW); min(XFTSEW) median(XFTSEM); max(XFTSEM); min(XFTSEM)
  • 32. López Caballero Francisco -26- Gráfica de las simulaciones de movimientos brownianos geométricos con parámetros estimados a partir de las muestras diaria y mensual: set.seed(1000) lsd0=log(as.numeric(FTSEd)[1])) I <- rnorm(length(FTSEd)-1,mud,sigmad) ssimul <- exp(cumsum(c(lsd0,I))) ssimul <- zoo(ssimul,index(FTSEd)) plot(ssimul,type="l",lty=1,xlab="",ylab="") B <- rnorm(length(FTSEd)-1,mud,sigmad) ssimul <- exp(cumsum(c(lsd0,B))) ssimull <- zoo(ssimul,index(FTSEd)) lines(ssimull,type="l",lty=3) #Mensuales set.seed(1000) lsd0=log(as.numeric(FTSEm[1])) I <- rnorm(length(FTSEm)-1,mud,sigmad) ssimul <- exp(cumsum(c(lsd0,I))) ssimul <- zoo(ssimul,index(FTSEm)) plot(ssimul,type="l",lty=1,xlab="",ylab="") B <- rnorm(length(FTSEm)-1,mud,sigmad) ssimul <- exp(cumsum(c(lsd0,B))) ssimull <- zoo(ssimul,index(FTSEm)) lines(ssimull,type="l",lty=3) Representación gráfica de los logreturns diarios del FTSE100 en escala logarítmica: plot(XFTSED) Cuantiles teóricos y empíricos de los logreturns del FTSE 100: qnorm(p=c(0.01,0.02,0.98,0.99),mean=mud,sd=sigmad) quantile(x=XFTSED,probs=c(0.01,0.02,0.98,0.99)) qnorm(p=c(0.01,0.025,0.975,0.99),mean=muw,sd=sigmaw) quantile(x=XFTSEW,probs=c(0.01,0.02,0.98,0.99)) qnorm(p=c(0.01,0.02,0.98,0.99),mean=mum,sd=sigmam) quantile(x=XFTSEM,probs=c(0.01,0.02,0.98,0.99)) Representación gráfica de curvas de densidad del FTSE100 y de la Normal con parámetros diarios, semanales y mensuales del FTSE100. Y las mismas curvas en escala logarítmica: densityXFTSED<-density(XFTSED,n=500) plot(densityXFTSED ,xlim=c(-0.08,0.08),type="l",lty=1,xlab="",ylab="",main="") curve(dnorm(x,mean=mud,sd=sigmad),add=TRUE,xlim=c(- 0.06,0.06),n=500,type="l",lty=2,xlab="c(-0",ylab="",main="") x <- seq(from=-0.06,to=0.06,length.out=500) plot( densityXFTSED$x, log(densityXFTSED$y),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.06,0.06), ylim=c(-4,4)) y <- log( dnorm(x,mean=mud,sd=sigmad) ) lines(x,y,lty=2) densityXFTSEW<-density(XFTSEW,n=500) plot(densityXFTSEW ,type="l",lty=1,xlim=c(-0.15,0.15),xlab="",ylab="",main="")
  • 33. TFG-ECO. Un análisis estadístico del FTSE 100 -27- curve( dnorm(x,mean=muw,sd=sigmaw),add=TRUE,n=500,type="l",lty=2,xlab="c(- 0",ylab="",main="") x <- seq(from=-0.15,to=0.15,length.out=500) plot( densityXFTSEW$x, log(densityXFTSEW$y),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.12,0.12), ylim=c(-4,4)) y <- log( dnorm(x,mean=muw,sd=sigmaw) ) lines(x,y,lty=2) densityXFTSEM<-density(XFTSEM,n=500) plot(densityXFTSEM,type="l",lty=1,xlim=c(-0.15,0.15),xlab="",ylab="",main="") curve( dnorm(x,mean=mum,sd=sigmam),add=TRUE,n=500,type="l",lty=2) x <- seq(from=-0.25,to=0.25,length.out=500) plot( densityXFTSEM$x, log(densityXFTSEM$y) , type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.21,0.18), ylim=c(-2,3)) y <- log( dnorm(x,mean=mum,sd=sigmam)) lines(x,y,lty=2) Asimetría y curtosis de la muestra de los logreturns del FTSE100 y p-valores: library(moments) kurtosis(XFTSED);kurtosis(XFTSEW);kurtosis(XFTSEM) skewness(XFTSED); skewness(XFTSEW);skewness(XFTSEM) sk.d <- skewness(XFTSED); stat <- abs(sk.d/sqrt(6/length(XFTSED))); 2*(1- pnorm(stat)) sk.w <- skewness(XFTSEW); stat <- abs(sk.w/sqrt(6/length(XFTSEW))); 2*(1- pnorm(stat)) sk.m <- skewness(XFTSEM); stat <- abs(sk.d/sqrt(6/length(XFTSEM))); 2*(1- pnorm(stat)) ku.d <- kurtosis(XFTSED)-3; stat <- abs(ku.d/sqrt(24/length(XFTSED))); 2*(1- pnorm(stat)) ku.w <- kurtosis(XFTSEW)-3; stat <- abs(ku.w/sqrt(24/length(XFTSEW))); 2*(1- pnorm(stat)) ku.m <- kurtosis(XFTSEM)-3; stat <- abs(ku.m/sqrt(24/length(XFTSEM))); 2*(1- pnorm(stat)) Representación gráfica de ejemplos de densidades de NIG y densidades de la Normal con parámetros estimados a partir de la NIG: library(fBasics) alphao=30; betao=0; muo=0; deltao=0.015 curve(dnig(x,alphao,betao,deltao,muo),xlim=c(- 0.075,0.075),n=500,type="l",lty=1,xlab="",ylab="",main="") tempo=sqrt(alphao^2-betao^2) meano <- muo +( (deltao*betao)/(tempo)); sigma2o= (deltao*(alphao^2))/(tempo^3); sigmao=sqrt(sigma2o); curve( dnorm(x,mean=meano,sd=sigmao),add=TRUE,n=500,type="l",lty=2,xlab="RETURNS" ,ylab="DENSITY",main="") x<-seq(from=-0.09,to=0.09,length.out=500)
  • 34. López Caballero Francisco -28- curve(log(dnig(x,alpha= alphao,beta= betao,delta= deltao,mu= muo)),type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.10,0.10), ylim=c(-2,4)) y<-log( dnorm(x,mean=meano,sd=sigmao)) lines(x,y,lty=2) alphap=150; betap=0; mup=0; deltap=0.015 curve(dnig(x,alphap,betap,deltap,mup),xlim=c(- 0.04,0.04),n=500,type="l",lty=1,xlab="",ylab="",main="") tempp=sqrt(alphap^2-betap^2) meanp <- mup +( (deltap*betap)/(tempp)); sigma2p= (deltap*(alphap^2))/(tempp^3); sigmap=sqrt(sigma2p); curve( dnorm(x,mean=meanp,sd=sigmap),add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",m ain="") x2 <- seq(from=-0.15,to=0.15,length.out=500) curve( log(dnig(x,alpha= alphap,beta= betap,delta= deltap,mu= mup)), type="l",lty=1,xlab="",ylab="",main="",xlim=c(-0.15,0.15), ylim=c(-15,4)) y2 <- log( dnorm(x,mean=mup,sd=sigmap)) lines(x2,y2,lty=2) alphaq=30; betaq=10; muq=0; deltaq=0.015 curve(dnig(x,alphaq,betaq,deltaq,muq),xlim=c(- 0.085,0.085),n=500,type="l",lty=1,xlab="",ylab="",main="") tempq=sqrt(alphaq^2-betaq^2) meanq <- muq +( (deltaq*betaq)/(tempq)); sigma2q= (deltaq*(alphaq^2))/(tempq^3); sigmaq=sqrt(sigma2q); curve(dnorm(x,mean=meanq,sd=sigmaq), add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",main="") alphar=30; betar=-10; mur=0; deltar=0.015 curve(dnig(x,alphar,betar,deltar,mur),xlim=c(-0.085,0.085), n=500,type="l",lty=1,xlab="",ylab="",main="") tempr=sqrt(alphar^2-betar^2) meanr <- mur +( (deltar*betar)/(tempr)); sigma2r= (deltar*(alphar^2))/(tempr^3); sigmar=sqrt(sigma2r); curve(dnorm(x,mean=meanr,sd=sigmar), add=TRUE,n=500,type="l",lty=2,xlab="",ylab="",main="") Estimación de los parámetros de la NIG por máxima verosimilitud para los intervalos diarios, semanales y mensuales de la muestra del FTSE100: NIGD <- nigFit(XFTSED,alpha=100,beta=-3,delta=0.01,mu=0.0001) NIGW <- nigFit(XFTSEW,alpha=70,beta=-3,delta=0.03,mu=0) NIGM <- nigFit(XFTSEM,alpha=70,beta=-26,delta=0.1,mu = 0) alphadd<-57.055;betadd<--4.936;deltadd<-0.0087785;mudd<-0.00075506 temp=sqrt(alphadd^2-betadd^2) mean <- mudd +( (deltadd*betadd)/(temp)); sigma2= (deltadd*(alphadd^2))/(temp^3); sigma=sqrt(sigma2); alphaww<-40.19202;betaww<--7.77744;deltaww<-0.0232595;muww<-0.004638111 temp=sqrt(alphaww^2-betaww^2) mean <- muww +( (deltaww*betaww)/(temp)); sigma2= (deltaww*(alphaww^2))/(temp^3); sigma=sqrt(sigma2); alphamm<-50.63565;betamm<--24.457;deltamm<-0.0604569;mumm<-0.03379096 temp=sqrt(alphamm^2-betamm^2) mean <- mumm +( (deltamm*betamm)/(temp)); sigma2= (deltamm*(alphamm^2))/(temp^3); sigma=sqrt(sigma2);
  • 35. TFG-ECO. Un análisis estadístico del FTSE 100 -29- Representación gráfica de las curvas de densidad del FTSE100, curvas de densidad normal con parámetros del FTSE100 y curva de densidad NIG con parámetros estimados a partir de la muestra: densityXFTSED <- density(XFTSED,n=500) plot(densityXFTSED, type="l",lty=1,xlab="",ylab="",main="", xlim=c(-0.06,0.06)) curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500, type="l",lty=2,xlab="",ylab="",main="") alpha=alphadd;beta=betadd;delta=deltadd; mu=mudd; curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l", lty=3,xlab="",ylab="",main="") densityXFTSEW <- density(XFTSEW,n=500) plot(densityXFTSEW, type="l",lty=1,xlab="",ylab="",main="", xlim=c(-0.25,0.25)) curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500, type="l",lty=2,xlab="",ylab="",main="") alpha=alphaww;beta=betaww;delta=deltaww; mu=muww; curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l", lty=3,xlab="",ylab="",main="") densityXFTSEM <- density(XFTSEM,n=500) plot(densityXFTSEM, type="l",lty=1,xlab="",ylab="",main="", xlim=c(-0.01,0.01)) curve( dnorm(x,mean=mud,sd=sigmad),add=TRUE,n=500, type="l",lty=2,xlab="",ylab="",main="") alpha=alphamm;beta=betamm;delta=deltamm; mu=mumm; curve(dnig(x,alpha,beta,delta,mu),n=500,add=TRUE, type="l", lty=3,xlab="",ylab="",main="") Autocorrelaciones representadas sobre un eje vertical de 0 a 1, sobre un eje vertical ajustado a máximos y a mínimos de las autocorrelaciones para los logreturns diarios del FTSE100, los valores absolutos de estos logreturns y los logreturns diarios del FTSE100 elevados al cuadrado con un retardo de 150: library(FinTS) AUTOCORRELACIOND <- Acf(as.numeric(XFTSED), lag.max=150,type = "correlation",main="",ylim=c(0,1)) AUTOCORRELACIONDABS <- Acf(as.numeric(abs(XFTSED)), lag.max=150,type = "correlation",main="",ylim=c(0,1)) AUTOCORRELACIONDC<- Acf(as.numeric(XFTSED^2), lag.max=150,type = "correlation",main="",ylim=c(0,1)) AUTOCORRELACIOND <- Acf(as.numeric(XFTSED), lag.max=150,type = "correlation",main="") AUTOCORRELACIONDABS <- Acf(as.numeric(abs(XFTSED)), lag.max=150,type="correlation",main="",) AUTOCORRELACIONDC<- Acf(as.numeric(XFTSED^2), lag.max=150,type="correlation",main="") Test de normalidad Jarque-Bera y Kolmogorov-Smirnov (corrección de Lilliefors) para los logreturns diarios, semanales y mensuales del FTSE100: