SlideShare una empresa de Scribd logo
1 de 6
Descargar para leer sin conexión
Estimaci´ n de M´ xima Verosimilitud Utilizando la
o
a
Funci´ n optim en R
o
Juan F. Olivares-Pacheco*
15 de diciembre de 2006

Resumen
En este trabajo se muestra el m´ todo de verosimilitud para la estimaci´ n de par´ metros
e
o
a
en la distribuci´ n normal a modo de ejemplo, utilizando el software estad´stico R.
o
ı
Espec´ficamente se har´ uso de la funci´ n optim explicando su utilizaci´ n y forma
ı
a
o
o
de optimizar funciones.
KEY WORDS: R, optim, m´ xima verosimilitud.
a

*

Departamento de Matem´ tica, Universidad de Atacama, CHILE. E-mail: jolivares@mat.uda.cl
a

1
1. Introducci´ n
o
El m´ todo de m´ xima verosimilitud fue introducido primero por R. A. Fisher, genetista
e
a
y experto en estad´stica, en la d´ cada de 1920. La mayor´a de los expertos en estad´stiı
e
ı
ı
ca recomiendan este m´ todo, al menos cuando el tama˜ o muestral es grande, porque los
e
n
estimadores resultantes tienen ciertas propiedades deseables de eficiencia.
Definici´ n 1.1 Sea X una variable aleatoria con funci´ n de probabilidad f (x|θ), donde
o
o
θ es un par´ metro desconocido. Sean X1 , . . . , Xn los valores observados en una muestra
a
aleatoria de tama˜ o n. La funci´ n de verosimilitud de la muestra es:
n
o
n

L(θ) =

f (xi |θ)

(1)

i=1

Debemos considerar que (1) es la funci´ n de densidad conjunta de la muestra aleatoria.
o
Notemos que la funci´ n de verosimilitud es una funci´ n del par´ metro desconocido θ.
o
o
a
Definici´ n 1.2 El estimador de m´ xima verosimilitud de θ es el valor de θ que maximiza
o
a
la funci´ n de verosimilitud L(θ).
o
En ocasiones es m´ s simple maximizar la funci´ n log-verosimilitud que (1), dada por:
a
o
n

l(θ) = log (L(θ)) =

log f (xi |θ)

(2)

i=1

El m´ todo de m´ xima verosimilitud puede emplearse en situaciones donde existen vare
a
ios par´ metros desconocidos, θ1 , θ2 , . . . , θk ), que es necesario estimar. En tales casos, la
a
funci´ n de verosimilitud es una funci´ n de los k par´ metros desconocidos θ1 , θ2 , . . . , θk y
o
o
a
ˆ ˆ
ˆ
los estimadores de m´ xima verosimilitud θ1 , θ2 , . . . , θk se obtienen al igualar a cero las k
a
derivadas parciales, dadas por:
∂L(θ1 , θ2 , . . . , θk )
, i = 1, 2, . . . , k
∂θi
y resolver el sistema resultante.

2
2. Ejemplo
Sea X1 , . . . , Xn una muestra aleatoria de una distribuci´ n normal. La funci´ n de
o
o
verosimilitud es:
L(θ) = √
=

1
2πσ 2

1
2πσ 2

e

−(x1 −µ)2
2σ 2

• ··· • √

1
2πσ 2

e

−(xn −µ)2
2σ 2

n

n/2

e

(xi −µ)2
i=1
2σ 2

as´
ı
l(θ) = log(L(θ))
1
n
= − log(2πσ 2 ) − 2
2
2σ

n

(xi − µ)2
i=1

Para encontrar los valores cr´ticos de µ y σ 2 debemos tomar las derivadas parciales de l(θ)
ı
con respecto a µ y σ 2 , igualarlas a cero y resolver las dos ecuaciones resultantes. Si se
omiten los detalles, los estimadores m´ ximos veros´miles resultantes son:
a
ı
µ =
ˆ

1
n
n

σ2 =
ˆ

3.

n

Xi
i=1

(Xi − X)2

i=1

n

optim
El comando optim en un m´ todo de optimizaci´ n de funciones de prop´ sito gene
o
o

eral, basado el los algoritmos Nelder-Mead, quasi-Newton y conjugate-gradient. La forma de utilizar este comando se muestra a continuaci´ n: optim(par, fn, method
o
= c("L-BFGS-B"), lower = -Inf, upper = Inf, . . . ), donde par corresponde al valor inicial del par´ metro a ser optimizado, fn la funci´ n a ser minimizada,
a
o
method el m´ todo a ser utilizado, el m´ todo L-BFGS-B permite definir intervalos en
e
e
donde tomara valores el o los par´ metros que se desean buscar, lower y upper son los
a
3
l´mites inferiores y superiores de los par´ metros a encontrar, respectivamente, y ... arguı
a
mentos adicionales que se van ha pasar a fn. Los valores que retorna el comando optim
son: par que corresponde al conjunto de los mejores par´ metros encontrados, var el vala
or de fn correspondiente a los par´ metros encontrados, convergence la convergencia
a
satisfactoria ser´ indicada con un 0. Para m´ s informaci´ n consultar >help(optim), en
a
a
o
R.

4. Un ejemplo pr´ ctico
a
Consideremos que nos interesa encontrar los estimadores m´ ximos veros´miles de la
a
ı
densidad N (µ, σ 2 ), a utilizando la siguientes muestra aleatoria de tama˜ o 100, con valores
n
iniciales para µ = 6 y σ = 3.

3,899

6,442

7,213

5,824

7,000

5,584

3,408

6,579

3,071

5,062

2,124

2,913

1,460

6,609

11,152

7,358

6,083

8,624

2,336

1,201

9,875

3,033

9,432

4,725

3,848

9,426

3,102 11,555

4,148

3,224

8,021

10,687

4,166

3,121

6,065

5,498 10,883

8,446

3,249

6,431

2,482

5,168

3,006

9,456

5,055

8,219

2,855 10,277

5,317

5,747

0,834

5,467

7,528 10,024

7,245

6,904

3,651

9,140

6,576

7,049

5,168

10,665

6,703

3,161

7,092

5,401

6,897

9,823 12,713

5,587

5,015

5,683

8,262

6,632

5,989

2,014

6,186

6,358

9,647

8,599

5,442

12,793

7,378

4,959

1,838

4,667

7,201

6,519

7,658

4,066

10,970

6,795

3,332

8,493

7,755

6,414

9,984

6,149

7,441 11,551

Esta muestra aleatoria es almacenada en R, de la siguiente manera: >muestra <c(3.899,...,11.551). Ya definida la variable muestra, que es un vector que contiene a la muestra aleatoria el siguiente paso es definir la funci´ n -log-verosimilitud. La
o
cual se define de la siguiente forma:

4
funcionMenosLog <- function(p, x)
{
p1 <- p[1]
p2 <- p[2]
n <- length(x)
f <- rep(0, n)
for (i in 1:n)
{
f[i] <- -log(dnorm(x[i], p1, p2))
}
sumaf <- sum(f)
return(sumaf)
}

Ya definida en R esta funci´ n, ahora es el turno de utilizar el comando optim, como
o
sigue:
resultado <- optim(par = c(6, 3), fn = funcionMenosLog,
method = c("L-BFGS-B"), lower = c(-Inf, 0), upper = c(Inf,
Inf), x = muestra)
Como se observa la salida de optim ha sido almacenada en una variable llamada
resultado, entonces para acceder a las respectivas estimaciones, utilizamos lo siguiente:
> resultado$par
[1] 6.339275 2.730736
Donde 6,339275 corresponda a la estimaci´ n de µ y 2,730736 a la estimaci´ n de σ. Para
o
o
ver el grado de convergencia, hacemos:
> resultado$convergence
[1] 0
Lo cual indica que la convergencia es satisfactoria.

5
Referencias
[1] Devore, J. L. “Probabilidad y Estad´stica para Ingenier´a y Ciencias”. Quinta
ı
ı
Edici´ n.
o
o
ı
[2] Bolfarine, H. and Carneiro M. “Introducci´ n a la Inferencia Estad´stica”. Primera
Edici´ n.
o

6

Más contenido relacionado

La actualidad más candente

6.metodo de newton
6.metodo de newton6.metodo de newton
6.metodo de newton
rjvillon
 
Busqueda de una raiz-Metodos numericos
Busqueda de una raiz-Metodos numericosBusqueda de una raiz-Metodos numericos
Busqueda de una raiz-Metodos numericos
jorgeduardooo
 
Método de la Secante
Método de la Secante Método de la Secante
Método de la Secante
Miguel Paredes
 

La actualidad más candente (20)

6.metodo de newton
6.metodo de newton6.metodo de newton
6.metodo de newton
 
Biseccion matlab
Biseccion matlabBiseccion matlab
Biseccion matlab
 
72199038 funciones-1
72199038 funciones-172199038 funciones-1
72199038 funciones-1
 
Metodo de biseccion en matlab
Metodo de biseccion  en matlabMetodo de biseccion  en matlab
Metodo de biseccion en matlab
 
Aplicaciones de las derivadas
Aplicaciones de las derivadasAplicaciones de las derivadas
Aplicaciones de las derivadas
 
Busqueda de una raiz-Metodos numericos
Busqueda de una raiz-Metodos numericosBusqueda de una raiz-Metodos numericos
Busqueda de una raiz-Metodos numericos
 
Computación 2 métodos
Computación 2 métodosComputación 2 métodos
Computación 2 métodos
 
Método de newton raphson
Método de newton raphsonMétodo de newton raphson
Método de newton raphson
 
Método de la Secante
Método de la Secante Método de la Secante
Método de la Secante
 
El método de la secante y secante modificado
El método de la secante y secante modificadoEl método de la secante y secante modificado
El método de la secante y secante modificado
 
Aplicacion de derivadas.
Aplicacion de derivadas.Aplicacion de derivadas.
Aplicacion de derivadas.
 
Funciones hiperbólicas (senh, cosh, tgh)
Funciones hiperbólicas (senh, cosh, tgh)Funciones hiperbólicas (senh, cosh, tgh)
Funciones hiperbólicas (senh, cosh, tgh)
 
Regla trapezoidal
Regla trapezoidalRegla trapezoidal
Regla trapezoidal
 
RAÍCES DE ECUACIONES
RAÍCES DE ECUACIONESRAÍCES DE ECUACIONES
RAÍCES DE ECUACIONES
 
Derivadas de una función
Derivadas de una funciónDerivadas de una función
Derivadas de una función
 
Ud 6 aplicaciones derivadas
Ud 6 aplicaciones derivadasUd 6 aplicaciones derivadas
Ud 6 aplicaciones derivadas
 
05 metodo-secante
05 metodo-secante05 metodo-secante
05 metodo-secante
 
Método de la secante
Método de la secante Método de la secante
Método de la secante
 
Integral indefinida
Integral indefinidaIntegral indefinida
Integral indefinida
 
Ud 4 límites
Ud 4 límitesUd 4 límites
Ud 4 límites
 

Similar a Emv optim

Estimacion de parametros
Estimacion de parametrosEstimacion de parametros
Estimacion de parametros
UFRO
 
Introduction to R by David Lucy Cap 12-16
Introduction to R by David Lucy Cap 12-16Introduction to R by David Lucy Cap 12-16
Introduction to R by David Lucy Cap 12-16
Luis Pons
 
20 algoritmos
20 algoritmos20 algoritmos
20 algoritmos
diego
 
Guia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una mediaGuia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una media
ITS CONSULTORIAS S.A.C
 

Similar a Emv optim (20)

Quadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplosQuadratic Sieve, algoritmos y ejemplos
Quadratic Sieve, algoritmos y ejemplos
 
Estimacion de parametros
Estimacion de parametrosEstimacion de parametros
Estimacion de parametros
 
Guia2
Guia2Guia2
Guia2
 
Simulacion con R
Simulacion con RSimulacion con R
Simulacion con R
 
Proceso de Ortogonalización sobre señales para Comunicaciones compartir.pdf
Proceso de Ortogonalización sobre señales para Comunicaciones compartir.pdfProceso de Ortogonalización sobre señales para Comunicaciones compartir.pdf
Proceso de Ortogonalización sobre señales para Comunicaciones compartir.pdf
 
Introduction to R by David Lucy Cap 12-16
Introduction to R by David Lucy Cap 12-16Introduction to R by David Lucy Cap 12-16
Introduction to R by David Lucy Cap 12-16
 
Maxima verosimilitud
Maxima verosimilitudMaxima verosimilitud
Maxima verosimilitud
 
Tutorial de GNUPlot
Tutorial de GNUPlotTutorial de GNUPlot
Tutorial de GNUPlot
 
20 algoritmos
20 algoritmos20 algoritmos
20 algoritmos
 
Clase11 Método Mle y momentos
Clase11 Método Mle y momentosClase11 Método Mle y momentos
Clase11 Método Mle y momentos
 
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelynActividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelyn
 
Raices deecuaciones
Raices deecuacionesRaices deecuaciones
Raices deecuaciones
 
Notas de Cálculo Diferencial
Notas de Cálculo DiferencialNotas de Cálculo Diferencial
Notas de Cálculo Diferencial
 
Guia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una mediaGuia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una media
 
Fundamentos matematicos para la criptografia asimetrica
Fundamentos matematicos para la criptografia asimetricaFundamentos matematicos para la criptografia asimetrica
Fundamentos matematicos para la criptografia asimetrica
 
DEBER UTA
DEBER UTADEBER UTA
DEBER UTA
 
Algoritmo EM
Algoritmo EMAlgoritmo EM
Algoritmo EM
 
Segmentación por umbralización método de otsu
Segmentación por umbralización   método de otsuSegmentación por umbralización   método de otsu
Segmentación por umbralización método de otsu
 
Progresiones geometricas
Progresiones geometricasProgresiones geometricas
Progresiones geometricas
 
Progresiones geometricas
Progresiones geometricasProgresiones geometricas
Progresiones geometricas
 

Último

informe-de-laboratorio-metodos-de-separacion-de-mezclas.pdf
informe-de-laboratorio-metodos-de-separacion-de-mezclas.pdfinforme-de-laboratorio-metodos-de-separacion-de-mezclas.pdf
informe-de-laboratorio-metodos-de-separacion-de-mezclas.pdf
AndreaTurell
 

Último (20)

sesion de aprendizaje 1 SEC. 13- 17 MAYO 2024 comunicación.pdf
sesion de aprendizaje 1 SEC. 13- 17  MAYO  2024 comunicación.pdfsesion de aprendizaje 1 SEC. 13- 17  MAYO  2024 comunicación.pdf
sesion de aprendizaje 1 SEC. 13- 17 MAYO 2024 comunicación.pdf
 
La Sostenibilidad Corporativa. Administración Ambiental
La Sostenibilidad Corporativa. Administración AmbientalLa Sostenibilidad Corporativa. Administración Ambiental
La Sostenibilidad Corporativa. Administración Ambiental
 
Presentación de la propuesta de clase.pdf
Presentación de la propuesta de clase.pdfPresentación de la propuesta de clase.pdf
Presentación de la propuesta de clase.pdf
 
1ERGRA~2.PDF EVALUACION DIAGNOSTICA 2024
1ERGRA~2.PDF EVALUACION DIAGNOSTICA 20241ERGRA~2.PDF EVALUACION DIAGNOSTICA 2024
1ERGRA~2.PDF EVALUACION DIAGNOSTICA 2024
 
informe-de-laboratorio-metodos-de-separacion-de-mezclas.pdf
informe-de-laboratorio-metodos-de-separacion-de-mezclas.pdfinforme-de-laboratorio-metodos-de-separacion-de-mezclas.pdf
informe-de-laboratorio-metodos-de-separacion-de-mezclas.pdf
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
 
Educacion Basada en Evidencias SM5 Ccesa007.pdf
Educacion Basada en Evidencias  SM5  Ccesa007.pdfEducacion Basada en Evidencias  SM5  Ccesa007.pdf
Educacion Basada en Evidencias SM5 Ccesa007.pdf
 
Actividades para el 11 de Mayo día del himno.docx
Actividades para el 11 de Mayo día del himno.docxActividades para el 11 de Mayo día del himno.docx
Actividades para el 11 de Mayo día del himno.docx
 
Power Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptxPower Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptx
 
Santa Criz de Eslava, la más monumental de las ciudades romanas de Navarra
Santa Criz de Eslava, la más monumental de las ciudades romanas de NavarraSanta Criz de Eslava, la más monumental de las ciudades romanas de Navarra
Santa Criz de Eslava, la más monumental de las ciudades romanas de Navarra
 
REGLAMENTO FINAL DE EVALUACIÓN 2024 pdf.pdf
REGLAMENTO  FINAL DE EVALUACIÓN 2024 pdf.pdfREGLAMENTO  FINAL DE EVALUACIÓN 2024 pdf.pdf
REGLAMENTO FINAL DE EVALUACIÓN 2024 pdf.pdf
 
activ4-bloque4 transversal doctorado.pdf
activ4-bloque4 transversal doctorado.pdfactiv4-bloque4 transversal doctorado.pdf
activ4-bloque4 transversal doctorado.pdf
 
Revista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdfRevista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdf
 
UNIDAD 3 -MAYO - IV CICLO para cuarto grado
UNIDAD 3 -MAYO - IV CICLO para cuarto gradoUNIDAD 3 -MAYO - IV CICLO para cuarto grado
UNIDAD 3 -MAYO - IV CICLO para cuarto grado
 
FICHA CUENTO BUSCANDO UNA MAMÁ 2024 MAESTRA JANET.pdf
FICHA CUENTO BUSCANDO UNA MAMÁ  2024 MAESTRA JANET.pdfFICHA CUENTO BUSCANDO UNA MAMÁ  2024 MAESTRA JANET.pdf
FICHA CUENTO BUSCANDO UNA MAMÁ 2024 MAESTRA JANET.pdf
 
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN PARÍS. Por JAVIER SOL...
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN  PARÍS. Por JAVIER SOL...ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN  PARÍS. Por JAVIER SOL...
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN PARÍS. Por JAVIER SOL...
 
PP_Comunicacion en Salud: Objetivación de signos y síntomas
PP_Comunicacion en Salud: Objetivación de signos y síntomasPP_Comunicacion en Salud: Objetivación de signos y síntomas
PP_Comunicacion en Salud: Objetivación de signos y síntomas
 
Novena de Pentecostés con textos de san Juan Eudes
Novena de Pentecostés con textos de san Juan EudesNovena de Pentecostés con textos de san Juan Eudes
Novena de Pentecostés con textos de san Juan Eudes
 
Sesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdfSesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdf
 
Lecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigosLecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigos
 

Emv optim

  • 1. Estimaci´ n de M´ xima Verosimilitud Utilizando la o a Funci´ n optim en R o Juan F. Olivares-Pacheco* 15 de diciembre de 2006 Resumen En este trabajo se muestra el m´ todo de verosimilitud para la estimaci´ n de par´ metros e o a en la distribuci´ n normal a modo de ejemplo, utilizando el software estad´stico R. o ı Espec´ficamente se har´ uso de la funci´ n optim explicando su utilizaci´ n y forma ı a o o de optimizar funciones. KEY WORDS: R, optim, m´ xima verosimilitud. a * Departamento de Matem´ tica, Universidad de Atacama, CHILE. E-mail: jolivares@mat.uda.cl a 1
  • 2. 1. Introducci´ n o El m´ todo de m´ xima verosimilitud fue introducido primero por R. A. Fisher, genetista e a y experto en estad´stica, en la d´ cada de 1920. La mayor´a de los expertos en estad´stiı e ı ı ca recomiendan este m´ todo, al menos cuando el tama˜ o muestral es grande, porque los e n estimadores resultantes tienen ciertas propiedades deseables de eficiencia. Definici´ n 1.1 Sea X una variable aleatoria con funci´ n de probabilidad f (x|θ), donde o o θ es un par´ metro desconocido. Sean X1 , . . . , Xn los valores observados en una muestra a aleatoria de tama˜ o n. La funci´ n de verosimilitud de la muestra es: n o n L(θ) = f (xi |θ) (1) i=1 Debemos considerar que (1) es la funci´ n de densidad conjunta de la muestra aleatoria. o Notemos que la funci´ n de verosimilitud es una funci´ n del par´ metro desconocido θ. o o a Definici´ n 1.2 El estimador de m´ xima verosimilitud de θ es el valor de θ que maximiza o a la funci´ n de verosimilitud L(θ). o En ocasiones es m´ s simple maximizar la funci´ n log-verosimilitud que (1), dada por: a o n l(θ) = log (L(θ)) = log f (xi |θ) (2) i=1 El m´ todo de m´ xima verosimilitud puede emplearse en situaciones donde existen vare a ios par´ metros desconocidos, θ1 , θ2 , . . . , θk ), que es necesario estimar. En tales casos, la a funci´ n de verosimilitud es una funci´ n de los k par´ metros desconocidos θ1 , θ2 , . . . , θk y o o a ˆ ˆ ˆ los estimadores de m´ xima verosimilitud θ1 , θ2 , . . . , θk se obtienen al igualar a cero las k a derivadas parciales, dadas por: ∂L(θ1 , θ2 , . . . , θk ) , i = 1, 2, . . . , k ∂θi y resolver el sistema resultante. 2
  • 3. 2. Ejemplo Sea X1 , . . . , Xn una muestra aleatoria de una distribuci´ n normal. La funci´ n de o o verosimilitud es: L(θ) = √ = 1 2πσ 2 1 2πσ 2 e −(x1 −µ)2 2σ 2 • ··· • √ 1 2πσ 2 e −(xn −µ)2 2σ 2 n n/2 e (xi −µ)2 i=1 2σ 2 as´ ı l(θ) = log(L(θ)) 1 n = − log(2πσ 2 ) − 2 2 2σ n (xi − µ)2 i=1 Para encontrar los valores cr´ticos de µ y σ 2 debemos tomar las derivadas parciales de l(θ) ı con respecto a µ y σ 2 , igualarlas a cero y resolver las dos ecuaciones resultantes. Si se omiten los detalles, los estimadores m´ ximos veros´miles resultantes son: a ı µ = ˆ 1 n n σ2 = ˆ 3. n Xi i=1 (Xi − X)2 i=1 n optim El comando optim en un m´ todo de optimizaci´ n de funciones de prop´ sito gene o o eral, basado el los algoritmos Nelder-Mead, quasi-Newton y conjugate-gradient. La forma de utilizar este comando se muestra a continuaci´ n: optim(par, fn, method o = c("L-BFGS-B"), lower = -Inf, upper = Inf, . . . ), donde par corresponde al valor inicial del par´ metro a ser optimizado, fn la funci´ n a ser minimizada, a o method el m´ todo a ser utilizado, el m´ todo L-BFGS-B permite definir intervalos en e e donde tomara valores el o los par´ metros que se desean buscar, lower y upper son los a 3
  • 4. l´mites inferiores y superiores de los par´ metros a encontrar, respectivamente, y ... arguı a mentos adicionales que se van ha pasar a fn. Los valores que retorna el comando optim son: par que corresponde al conjunto de los mejores par´ metros encontrados, var el vala or de fn correspondiente a los par´ metros encontrados, convergence la convergencia a satisfactoria ser´ indicada con un 0. Para m´ s informaci´ n consultar >help(optim), en a a o R. 4. Un ejemplo pr´ ctico a Consideremos que nos interesa encontrar los estimadores m´ ximos veros´miles de la a ı densidad N (µ, σ 2 ), a utilizando la siguientes muestra aleatoria de tama˜ o 100, con valores n iniciales para µ = 6 y σ = 3. 3,899 6,442 7,213 5,824 7,000 5,584 3,408 6,579 3,071 5,062 2,124 2,913 1,460 6,609 11,152 7,358 6,083 8,624 2,336 1,201 9,875 3,033 9,432 4,725 3,848 9,426 3,102 11,555 4,148 3,224 8,021 10,687 4,166 3,121 6,065 5,498 10,883 8,446 3,249 6,431 2,482 5,168 3,006 9,456 5,055 8,219 2,855 10,277 5,317 5,747 0,834 5,467 7,528 10,024 7,245 6,904 3,651 9,140 6,576 7,049 5,168 10,665 6,703 3,161 7,092 5,401 6,897 9,823 12,713 5,587 5,015 5,683 8,262 6,632 5,989 2,014 6,186 6,358 9,647 8,599 5,442 12,793 7,378 4,959 1,838 4,667 7,201 6,519 7,658 4,066 10,970 6,795 3,332 8,493 7,755 6,414 9,984 6,149 7,441 11,551 Esta muestra aleatoria es almacenada en R, de la siguiente manera: >muestra <c(3.899,...,11.551). Ya definida la variable muestra, que es un vector que contiene a la muestra aleatoria el siguiente paso es definir la funci´ n -log-verosimilitud. La o cual se define de la siguiente forma: 4
  • 5. funcionMenosLog <- function(p, x) { p1 <- p[1] p2 <- p[2] n <- length(x) f <- rep(0, n) for (i in 1:n) { f[i] <- -log(dnorm(x[i], p1, p2)) } sumaf <- sum(f) return(sumaf) } Ya definida en R esta funci´ n, ahora es el turno de utilizar el comando optim, como o sigue: resultado <- optim(par = c(6, 3), fn = funcionMenosLog, method = c("L-BFGS-B"), lower = c(-Inf, 0), upper = c(Inf, Inf), x = muestra) Como se observa la salida de optim ha sido almacenada en una variable llamada resultado, entonces para acceder a las respectivas estimaciones, utilizamos lo siguiente: > resultado$par [1] 6.339275 2.730736 Donde 6,339275 corresponda a la estimaci´ n de µ y 2,730736 a la estimaci´ n de σ. Para o o ver el grado de convergencia, hacemos: > resultado$convergence [1] 0 Lo cual indica que la convergencia es satisfactoria. 5
  • 6. Referencias [1] Devore, J. L. “Probabilidad y Estad´stica para Ingenier´a y Ciencias”. Quinta ı ı Edici´ n. o o ı [2] Bolfarine, H. and Carneiro M. “Introducci´ n a la Inferencia Estad´stica”. Primera Edici´ n. o 6