DESARROLLO  HISTORICO  DE  LA  ESTADISTICA
Todo el que toma  decisiones  debe hacerlo bajo condiciones de  incertidumbre , en mayor o menor grado.  Con el aumento de la competitividad, la administración de las instituciones requiere tomar decisiones cada vez con una mayor base de conocimiento para así  reducir la incertidumbre .
Aumento en la eficiencia de los computadores Aumento en la capacidad de almacenar datos. Datos no faltan Pero los  datos  por si solos no sirven …
…  si la institución no es capaz de extraer  información  de ellos.  Y con los recursos necesarios, como competencias y experiencia, se puede convertir esta información en  conocimiento  … …  para tomar las  decisiones  estratégicas, tácticas y operativas.
Las etapa de  producción de datos  y de  extracción de información , requiere de  métodos ,  técnicas  y  herramientas  de análisis.  El desarrollo de estos métodos, técnicas y herramientas se encuentra en una  ciencia  que se llama  ESTADISTICA .
CONOCIMIENTO RECURSOS INTELECTUALES INFORMACION ESTADISTICA ESTADISTICA DATOS
CONOCIMIENTO RECURSOS INTELECTUALES INFORMACION ESTADISTICA ESTADISTICA DATOS
Godofredo Achenwall , 1760, acuñó la palabra  estadística ,  del italiano  statista  (estadista), del latín  status , estado o situación.  Pensaba que la nueva ciencia sería el aliado más eficaz del gobernante.
Egipto 3050 AC - Datos sobre población y riqueza.  - Ramsés II hizo un censo de las tierras, hacia 1300 AC Antecedentes Remotos de la Estadística
También en se guardaban datos de las  crecidas del Nilo , que registraban largos períodos de sequía seguidos por largos períodos de inundaciones. Sólo nos llegaron datos desde el año 622 al 1281 de nuestra era, pero hay referencias de que existió esta información desde tiempos remotos. De hecho, construyeron un calendario basado en las crecidas del Nilo.
Babilonia 3000 AC - Datos comerciales y agrícolas.
Antiguo Israel   - La Biblia, libro de los Números: datos    estadísticos de dos recuentos de la    población.    - El rey David, alrededor de 1000 AC, ordenó hacer un censo de Israel.
China, 2000 AC - Registros numéricos del bienestar material.
Grecia, 540 AC -   Censos periódicos con fines tributarios,    sociales y militares.
Imperio Romano - Censos de población cada cinco años.
Francia, 758 y 762  - Relaciones de tierra de la Iglesia, hechas por    Pipino el Breve Francia, siglo IX  - Censos parciales de la    servidumbre de los campos. y por Carlomagno, respectivamente.
Inglaterra, 1086. - Censo de Guillermo I:   Domesday Book. Inglaterra, siglo XVI. - Registro minucioso de muertes por la peste.
Los  Censos  continúan en nuestros días... ...pero tienen sus días contados.
Datos Probabilidad ESTADISTICA
La   teoría de la probabilidad   como una lógica y una metodología para la  medición  y el  estudio   de la  incertidumbre en la planeación e interpretación de la  observación  y la  experimentación . Es una disciplina matemática que fundamenta la  Estadística
Una aplicación de la  probabilidad empírica  a los   seguros   de buques se encuentra en Flandes, en el siglo XIV.
Girolamo Cardano Galileo Galilei 1501-1576 1564-1642 Habían hecho cálculos de  probabilidades numéricas , de diversas combinaciones de  dados .
Pero las raíces de la  Teoría de la probabilidad  se encuentran en los  juegos de azar .
Blaise  Pascal Los inicios de la  probabilidad , como teoría matemática, puede rastrearse en la correspondencia que sostuvo  Pascal  con  Fermat , en la década de 1650.
Pierre de Fermat
Christian Huygens También los orígenes de la  teoría de la probabilidad  se encuentran en un corto artículo escrito por él en 1657. Geómetra, físico, astrónomo.
Estos trabajos tempranos de  Fermat ,  Pascal  y  Huygens  no abordan problemas de  estadística inferencial , o  confirmatoria , ni van más allá de los  juegos de azar , que eran sus intereses inmediatos.
John Graunt  es considerado por algunos, como el  iniciador   de la Estadística ,  por sus trabajos en  demografía , que incorporan nociones de  regularidad  en el comportamiento de ciertas  proporciones  de naturaleza  aleatoria   (1662).
Jacob Bernoulli Introduce lo que hoy se conoce como la primera  ley de los grandes números .  Considerado el  iniciador  de la teoría de la probabilidad  Matemático suizo  (n. 1654)
Entre los siglos  XVIII  y  XIX , la Estadística se propagó a través de diversas disciplinas: la  astronomía  y la  geodesia , la  psicología , la  biología , hasta las  ciencias sociales .  Y también profundizó en el conocimiento del rol de la  probabilidad , siendo desplazada la analogía de los juegos de azar, por modelos probabilísticos para efectuar  medidas bajo incertidumbre .  De este modo se llega a los inicios de la  inferencia estadística , cuyo dominio de aplicación se extiende gradualmente, desde fines de este período.
Abraham De Moivre Efectuó estudios sobre la  ley de probabilidad binomial , y formuló una aproximación para muestras grandes, considerada la primera formulación de la  ley de probabilidad normal . 1718 a 1730.
Thomas Bayes En 1764 se publicó su trabajo “ Ensayo sobre la Resolución de un Problema en la Doctrina del Azar ” póstumamente. Ignorado por sus contemporáneos, tuvo poca influencia sobre el desarrollo temprano de la Estadística. Sus contenidos sirvieron, casi dos siglos después, para grabar su nombre en la moderna  inferencia bayesiana .
Una forma simple del  Teorema de bayes  (hay casos más generales):
Una forma simple del  Teorema de bayes  (hay casos más generales):
La inferencia  bayesiana  es antagónica con la de los  frecuentistas , que sólo permiten asignar probabilidades cuando es posible que éstas son apoyadas por experimentación.  La inferencia bayesiana permite asignar probabilidades a fenómenos que  no son de naturaleza aleatoria , pero cuyos resultados no son conocidos.
si se repite un experimento  n  veces, En la concepción  frecuentista  de la probabilidad, se registra la fracción de veces que se cumple el evento que nos interesa,  E , la  probabilidad   de  E   es el límite de esa fracción, cuando   n  tiende a infinito.
Frecuentista esperando que  n  llegue a infinito.
Los  Bayesianos  permiten que se asigne probabilidad a eventos que  no son repetibles . Incluso a eventos que  no parecen aleatorios , pero cuyos resultados son  desconocidos
Arthur Young Publicó sus resultados en 1771, con ideas sorprendentemente modernas sobre el  Diseño de Experimentos . Desarrolló un gran número de  experimentos agrícolas  en su fundo.
Pierre Simon Laplace Contribuyó en muchos temas estadísticos, como profundizar la aplicación de la  probabilidad  a la  inferencia , la obtención de una  curva de errores , llegando a la formulación de la ley de  probabilidad normal . 1774 a 1781.
Adrian Marie Legendre Creó un sistema para describir el movimiento planetario, que involucra el  método de los mínimos cuadrados , tan utilizado en la Estadística de hoy, como método de  estimación de parámetros . 1805. Mínimos Cuadrados  fue tema dominante en el siglo XIX.
Karl Gauss También contribuyó al método de los  mínimos cuadrados .  Desembocó en la  ley de probabilidad normal  independientemente de Laplace, como  descripción probabilística del error , pero encontró su asociación con el método de  mínimos cuadrados .
Adolphe Quetelet Se le ha llamado el  padre de la Estadística moderna , por observar la extraordinaria regularidad con que se reproducían ciertos  fenómenos sociales , como crímenes o suicidios. 1835. Argumenta que esas regularidades sólo pueden ser encontradas mediante el uso de  técnicas estadísticas .  Meteorólogo, astrónomo, estadístico, sociólogo. Ajustó  distribuciones de probabilidad  a datos empíricos.
Simeón Denis Poisson Publicó en 1837 el germen de dos elementos asociados a su nombre:  La  distribución de Poisson .  La generalización de la  ley de los grandes números  de Bernoulli.
Numerosos investigadores, provenientes de las más  diversas disciplinas , hicieron contribuciones a la  Estadística  durante la segunda mitad del siglo  XIX , construyendo de a poco una disciplina que se iría perfilando cada vez más como una  ciencia independiente .
Wilhelm Lexis Contribuyó a la  estadística social , estudiando datos presentados como  series   de   tiempo , por primera vez. 1880
John Arbuthnot Realizó estudios sobre las  proporciones de los sexos  en los nacimientos. Inglés, médico de la reina Ana.
Henry Buckle Inglés, precursor de la moderna  Ciencia Histórica , aplicó métodos estadísticos para ayudar de hacer de la historia una ciencia.
Gustav Fechner Alemán, con estudios de medicina, aplicó la experimentación para describir relaciones entre  estímulos  y  sensación . Derivó la Estadística hacia la  psicología experimental . Introdujo la  medición  en la  psicología , hacia mediados del siglo XIX.
Hermann Ebbinghaus Aplicó el  diseño experimental  al estudio de la  memoria . Psicólogo alemán, pensaba que el estudio cuantitativo era el único medio de expresar las vagas nociones que manejaba la psicología entonces.
A partir de 1880,  Francis Galton ,  Francis Edgeworth  y  Karl Pearson , crean una revolución en la Estadística, proporcionando una metodología empírica que sustituye a la  experimentación controlada , en disciplinas donde la experimentación no es posible de aplicar.  Lo hicieron separadamente Galton en la  Antropología , Edgeworth en la  Economía  y Pearson en la  filosofía de la ciencia .
Francis  Galton (n. 1822) Investigó el carácter hereditario de la genialidad. Investigó la  distribución normal bivariada . Fué pionero en el tema de la  regresión lineal simple , y por la  correlación .
Francis Edgeworth Desarrolló una versión del  teorema del límite central , que establece  que bajo ciertas condiciones, un  promedio muestral  sigue aproximadamente la ley probabilística  normal , si el tamaño muestral es grande Aportó la  aproximación de Edgeworth , cuyo uso se ha intensificado hoy. Estudió las aproximaciones que se obtienen cuando los conjuntos de datos  crecen .
Karl  Pearson Estudió las distribuciones probabilísticas  asimétricas ,  Llegando a introducir la  distribución Gama . Desarrolló el  estadístico ji-cuadrado .  Mostró interés en los más diversos temas, además de la estadística,  llegando a la convicción de que la  estadística analítica  yace en los fundamentos de todo el conocimiento. 1892
La idea de  representatividad , en Estadística, es decir, de seleccionar aleatoriamente algunas unidades para llevar a cabo un estudio sobre una población, es antigua.  En esta idea se fundamenta la técnica de  muestreo .  Sin embargo, durante mucho tiempo no fue aceptado, por la generalidad de los estadísticos.
En 1895, fue presentada formalmente en una reunión del Instituto Internacional de Estadística, en Berna, por el director de la Oficina Central de Estadística de Noruega,  A. N. Kaier , bajo el nombre de  método representativo . Despertó interés pero fue  rechazado .  Se presentó nuevamente en una reunión del Instituto Internacional de Estadística Roma, en 1926, y finalmente  aceptado .
Influyeron los trabajos en estudios sociales y económicos, de  A. L. Bowley .  A él se debe una aplicación de la teoría de inferencia a las  encuestas por muestreo , realizado en 1906 .
Jerzy Neyman Desarrolló el  muestreo de poblaciones finitas , y la estimación por  intervalos de confianza . 1934. Estableció que la  selección aleatoria  es la base de una teoría científica que permite predecir la  validez de las estimaciones muestrales .  También dejó establecida toda una filosofía sobre la  eficiencia  de la  estrategia muestral .
Egon Pearson Hijo de Karl Pearson. Junto a  Neyman  presentó una teoría sobre cómo  probar hipótesis , en base a datos . 1936. Resolvieron dificultades fundamentales para su comprensión, introduciendo las nociones de  hipótesis alternativa , y los dos tipos de  error , el de rechazar una hipótesis que es verdadera, y el de no rechazar una hipótesis que es falsa.  Surge el  Lema de Neyman-Pearson .
Ronald Fisher Biólogo, genetista y estadístico inglés, ingresó a la estación experimental agrícola de Rotahmsted en 1919. Contribuyó a desarrollar técnicas claves para en la experimentación: La  aleatorización , que constituye una protección contra la introducción de factores impredecibles. El  diseño experimental  en bloques, que permite el control de efectos de factores no deseados.
El  diseño factorial , para el estudio del efecto de varios factores, simultáneamente.  El  análisis de varianza , técnica de análisis que permite separar las fuentes de variación y así evaluar su influencia. desarrolló una  teoría de estimación   eficiente, basada en la  Función de Verosimilitud .
Se crea una larga controversia entre  Ronald Fisher  y  Neyman  y  Pearson . Fisher  visualizaba la  prueba de hipótesis  como un procedimiento mediante el cual el investigador podía  formarse una opinión  sobre alguna característica de la población, o  parámetro .  Neyman  y  Pearson  vieron la prueba de hipótesis como un medio para que el investigador  tomara una decisión  sobre un  parámetro  de la población.
William Gosset Químico y matemático inglés. Trabajó como químico en la cervecería Guiness, en particular en  Control Estadístico de Calidad . Publicaba sus trabajos de estadística bajo el seudónimo de  Student . desarrolló el  test T , basado en la distribución de probabilidad  T de Student , introducida por él.
George Snedecor Fué uno de los pioneros de la Estadística en los Estados Unidos, al constituirse en  fundador del Laboratorio de Estadística de la  Iowa State University , en 1933, dedicado fundamentalmente a las aplicaciones a la agricultura. Trabajó en conjunto con Ronald Fisher, contribuyendo a desarrollar algunas de las ideas de él. En particular, son importantes sus contribuciones al  Análisis de Varianza .
William Cochran Nacido en Escocia en 1909. Trabajó en la Iowa State University, junto con Snedecor. Hizo contribuciones al  Diseño de Experimentos  y a la  Teoría del Muestreo . Se trasladó a Rothamsted, Inglaterra, donde tuvo contacto con Ronald Fisher, donde se involucró en aplicaciones médicas de la estadística.
Harold Hotelling Economista y Estadístico nacido en 1895. Pionero en la combinación de Estadística Matemática y Economía. También trabajo con Ronald Fisher y aplicó algunas de sus técnicas. En particular al periodismo, ciencia política, demografía y alimentación. Es conocido en Estadística por sus trabajos en  Análisis Multivariante , en particular por la distribucion de probabilidad  T-Cuadrada de Hotelling , uhna generalización de la T de Student.
Frank Wilcoxon Químico y Estadístico nacido en Estados nUnidos en 1892.  Contribuyó a la  Estadística No-Paramétrica , en particular es suyo el  test basado en rangos de Wilcoxon .
Charles Spearman Psicólogo nacido en 1863. Se preocupó de definir la inteligencia. Se le considera el primer  psicometrista sistemático Fué pionero en el desarrollo del método del  Análisis Multivariante  denominado  Análisis Factorial .
L.L. Thurstone Nació en Estados Unidos en 1887. De formación original ingeniero, trabajó junto a  Thomas A. Edison . Realizó grandes aportaciones a la medición de la inteligencia y de las actitudes sociales.  Defendió la explicación de la inteligencia como conjunto de siete capacidades o factores, también identificables mediante el  análisis factorial .
Abraham Wald Desarrolló la  Teoría Estadística de Decisiones , y la  Teoría de Muestreo Secuencial .  También en otros campos, como  Máxima Verosimilitud Asintótica ,  Estadística No-Paramétrica ,  Análisis Discriminante ,  Control de calidad ,  Modelos Lineales con Error en las Variables , entre otros.
Andrey Kolmogorov Matemático y físico ruso. Planteó los fundamentos de la  teoría axiomática de la probabilidad .  Hizo contribuciones cruciales a la  Teoría  Algorítmica de la Aleatoriedad , a la  Mecánica Estadística , a los  Procesos Estocásticos , a la  Teoría de la Información .  Analizó la  entropía  en los texto literarios, lo que dio origen a una corriente de estudios sobre  lingüística estadística .
Calyampudi Radhakrishna Rao Estadístico Indio nacido en 1920. Hizo contribuciones en las áreas de  Teoría de Estimación ,  Inferencia ,  Modelos Lineales ,  Análisis Multivariante , entre otras.  Es conocido especialmente por la  Cota de Crámer-Rao  y el  Teorema de Rao-Blackwell .
En años recientes ha habido un desarrollo de la Estadística de la mano del computador. Es así como se ha desarrollado la llamada   Computación Estadística . El computador permite realizar operaciones  repetitivas  a alta velocidad. Cuando un problema es demasiado complejo como para encontrar soluciones analíticas, se pueden desarrollar métodos basados en la repetición.
Por ejemplo, métodos  que buscan  aproximaciones a las soluciones óptimas  mediante la repetición. Estos métodos dan origen a algoritmos computacionales que requieren mucho procesamiento.
Entre estos métodos, están los más conocidos, como el   Bootstrap , de   B. Efron .  El  jacknife , la   validación cruzada   (cross validation),   el  Gibbs sampling . El   Algoritmo EM , de   Dempster ,   Laird   y  Rubin .
Y muchos más, que aún están por descubrirse…..
FIN

Historia de la Estadistica

  • 1.
    DESARROLLO HISTORICO DE LA ESTADISTICA
  • 2.
    Todo el quetoma decisiones debe hacerlo bajo condiciones de incertidumbre , en mayor o menor grado. Con el aumento de la competitividad, la administración de las instituciones requiere tomar decisiones cada vez con una mayor base de conocimiento para así reducir la incertidumbre .
  • 3.
    Aumento en laeficiencia de los computadores Aumento en la capacidad de almacenar datos. Datos no faltan Pero los datos por si solos no sirven …
  • 4.
    … sila institución no es capaz de extraer información de ellos. Y con los recursos necesarios, como competencias y experiencia, se puede convertir esta información en conocimiento … … para tomar las decisiones estratégicas, tácticas y operativas.
  • 5.
    Las etapa de producción de datos y de extracción de información , requiere de métodos , técnicas y herramientas de análisis. El desarrollo de estos métodos, técnicas y herramientas se encuentra en una ciencia que se llama ESTADISTICA .
  • 6.
    CONOCIMIENTO RECURSOS INTELECTUALESINFORMACION ESTADISTICA ESTADISTICA DATOS
  • 7.
    CONOCIMIENTO RECURSOS INTELECTUALESINFORMACION ESTADISTICA ESTADISTICA DATOS
  • 8.
    Godofredo Achenwall ,1760, acuñó la palabra estadística , del italiano statista (estadista), del latín status , estado o situación. Pensaba que la nueva ciencia sería el aliado más eficaz del gobernante.
  • 9.
    Egipto 3050 AC- Datos sobre población y riqueza. - Ramsés II hizo un censo de las tierras, hacia 1300 AC Antecedentes Remotos de la Estadística
  • 10.
    También en seguardaban datos de las crecidas del Nilo , que registraban largos períodos de sequía seguidos por largos períodos de inundaciones. Sólo nos llegaron datos desde el año 622 al 1281 de nuestra era, pero hay referencias de que existió esta información desde tiempos remotos. De hecho, construyeron un calendario basado en las crecidas del Nilo.
  • 11.
    Babilonia 3000 AC- Datos comerciales y agrícolas.
  • 12.
    Antiguo Israel - La Biblia, libro de los Números: datos estadísticos de dos recuentos de la población. - El rey David, alrededor de 1000 AC, ordenó hacer un censo de Israel.
  • 13.
    China, 2000 AC- Registros numéricos del bienestar material.
  • 14.
    Grecia, 540 AC- Censos periódicos con fines tributarios, sociales y militares.
  • 15.
    Imperio Romano -Censos de población cada cinco años.
  • 16.
    Francia, 758 y762 - Relaciones de tierra de la Iglesia, hechas por Pipino el Breve Francia, siglo IX - Censos parciales de la servidumbre de los campos. y por Carlomagno, respectivamente.
  • 17.
    Inglaterra, 1086. -Censo de Guillermo I: Domesday Book. Inglaterra, siglo XVI. - Registro minucioso de muertes por la peste.
  • 18.
    Los Censos continúan en nuestros días... ...pero tienen sus días contados.
  • 19.
  • 20.
    La teoría de la probabilidad como una lógica y una metodología para la medición y el estudio de la incertidumbre en la planeación e interpretación de la observación y la experimentación . Es una disciplina matemática que fundamenta la Estadística
  • 21.
    Una aplicación dela probabilidad empírica a los seguros de buques se encuentra en Flandes, en el siglo XIV.
  • 22.
    Girolamo Cardano GalileoGalilei 1501-1576 1564-1642 Habían hecho cálculos de probabilidades numéricas , de diversas combinaciones de dados .
  • 23.
    Pero las raícesde la Teoría de la probabilidad se encuentran en los juegos de azar .
  • 24.
    Blaise PascalLos inicios de la probabilidad , como teoría matemática, puede rastrearse en la correspondencia que sostuvo Pascal con Fermat , en la década de 1650.
  • 25.
  • 26.
    Christian Huygens Tambiénlos orígenes de la teoría de la probabilidad se encuentran en un corto artículo escrito por él en 1657. Geómetra, físico, astrónomo.
  • 27.
    Estos trabajos tempranosde Fermat , Pascal y Huygens no abordan problemas de estadística inferencial , o confirmatoria , ni van más allá de los juegos de azar , que eran sus intereses inmediatos.
  • 28.
    John Graunt es considerado por algunos, como el iniciador de la Estadística , por sus trabajos en demografía , que incorporan nociones de regularidad en el comportamiento de ciertas proporciones de naturaleza aleatoria (1662).
  • 29.
    Jacob Bernoulli Introducelo que hoy se conoce como la primera ley de los grandes números . Considerado el iniciador de la teoría de la probabilidad Matemático suizo (n. 1654)
  • 30.
    Entre los siglos XVIII y XIX , la Estadística se propagó a través de diversas disciplinas: la astronomía y la geodesia , la psicología , la biología , hasta las ciencias sociales . Y también profundizó en el conocimiento del rol de la probabilidad , siendo desplazada la analogía de los juegos de azar, por modelos probabilísticos para efectuar medidas bajo incertidumbre . De este modo se llega a los inicios de la inferencia estadística , cuyo dominio de aplicación se extiende gradualmente, desde fines de este período.
  • 31.
    Abraham De MoivreEfectuó estudios sobre la ley de probabilidad binomial , y formuló una aproximación para muestras grandes, considerada la primera formulación de la ley de probabilidad normal . 1718 a 1730.
  • 32.
    Thomas Bayes En1764 se publicó su trabajo “ Ensayo sobre la Resolución de un Problema en la Doctrina del Azar ” póstumamente. Ignorado por sus contemporáneos, tuvo poca influencia sobre el desarrollo temprano de la Estadística. Sus contenidos sirvieron, casi dos siglos después, para grabar su nombre en la moderna inferencia bayesiana .
  • 33.
    Una forma simpledel Teorema de bayes (hay casos más generales):
  • 34.
    Una forma simpledel Teorema de bayes (hay casos más generales):
  • 35.
    La inferencia bayesiana es antagónica con la de los frecuentistas , que sólo permiten asignar probabilidades cuando es posible que éstas son apoyadas por experimentación. La inferencia bayesiana permite asignar probabilidades a fenómenos que no son de naturaleza aleatoria , pero cuyos resultados no son conocidos.
  • 36.
    si se repiteun experimento n veces, En la concepción frecuentista de la probabilidad, se registra la fracción de veces que se cumple el evento que nos interesa, E , la probabilidad de E es el límite de esa fracción, cuando n tiende a infinito.
  • 37.
    Frecuentista esperando que n llegue a infinito.
  • 38.
    Los Bayesianos permiten que se asigne probabilidad a eventos que no son repetibles . Incluso a eventos que no parecen aleatorios , pero cuyos resultados son desconocidos
  • 39.
    Arthur Young Publicósus resultados en 1771, con ideas sorprendentemente modernas sobre el Diseño de Experimentos . Desarrolló un gran número de experimentos agrícolas en su fundo.
  • 40.
    Pierre Simon LaplaceContribuyó en muchos temas estadísticos, como profundizar la aplicación de la probabilidad a la inferencia , la obtención de una curva de errores , llegando a la formulación de la ley de probabilidad normal . 1774 a 1781.
  • 41.
    Adrian Marie LegendreCreó un sistema para describir el movimiento planetario, que involucra el método de los mínimos cuadrados , tan utilizado en la Estadística de hoy, como método de estimación de parámetros . 1805. Mínimos Cuadrados fue tema dominante en el siglo XIX.
  • 42.
    Karl Gauss Tambiéncontribuyó al método de los mínimos cuadrados . Desembocó en la ley de probabilidad normal independientemente de Laplace, como descripción probabilística del error , pero encontró su asociación con el método de mínimos cuadrados .
  • 43.
    Adolphe Quetelet Sele ha llamado el padre de la Estadística moderna , por observar la extraordinaria regularidad con que se reproducían ciertos fenómenos sociales , como crímenes o suicidios. 1835. Argumenta que esas regularidades sólo pueden ser encontradas mediante el uso de técnicas estadísticas . Meteorólogo, astrónomo, estadístico, sociólogo. Ajustó distribuciones de probabilidad a datos empíricos.
  • 44.
    Simeón Denis PoissonPublicó en 1837 el germen de dos elementos asociados a su nombre: La distribución de Poisson . La generalización de la ley de los grandes números de Bernoulli.
  • 45.
    Numerosos investigadores, provenientesde las más diversas disciplinas , hicieron contribuciones a la Estadística durante la segunda mitad del siglo XIX , construyendo de a poco una disciplina que se iría perfilando cada vez más como una ciencia independiente .
  • 46.
    Wilhelm Lexis Contribuyóa la estadística social , estudiando datos presentados como series de tiempo , por primera vez. 1880
  • 47.
    John Arbuthnot Realizóestudios sobre las proporciones de los sexos en los nacimientos. Inglés, médico de la reina Ana.
  • 48.
    Henry Buckle Inglés,precursor de la moderna Ciencia Histórica , aplicó métodos estadísticos para ayudar de hacer de la historia una ciencia.
  • 49.
    Gustav Fechner Alemán,con estudios de medicina, aplicó la experimentación para describir relaciones entre estímulos y sensación . Derivó la Estadística hacia la psicología experimental . Introdujo la medición en la psicología , hacia mediados del siglo XIX.
  • 50.
    Hermann Ebbinghaus Aplicóel diseño experimental al estudio de la memoria . Psicólogo alemán, pensaba que el estudio cuantitativo era el único medio de expresar las vagas nociones que manejaba la psicología entonces.
  • 51.
    A partir de1880, Francis Galton , Francis Edgeworth y Karl Pearson , crean una revolución en la Estadística, proporcionando una metodología empírica que sustituye a la experimentación controlada , en disciplinas donde la experimentación no es posible de aplicar. Lo hicieron separadamente Galton en la Antropología , Edgeworth en la Economía y Pearson en la filosofía de la ciencia .
  • 52.
    Francis Galton(n. 1822) Investigó el carácter hereditario de la genialidad. Investigó la distribución normal bivariada . Fué pionero en el tema de la regresión lineal simple , y por la correlación .
  • 53.
    Francis Edgeworth Desarrollóuna versión del teorema del límite central , que establece que bajo ciertas condiciones, un promedio muestral sigue aproximadamente la ley probabilística normal , si el tamaño muestral es grande Aportó la aproximación de Edgeworth , cuyo uso se ha intensificado hoy. Estudió las aproximaciones que se obtienen cuando los conjuntos de datos crecen .
  • 54.
    Karl PearsonEstudió las distribuciones probabilísticas asimétricas , Llegando a introducir la distribución Gama . Desarrolló el estadístico ji-cuadrado . Mostró interés en los más diversos temas, además de la estadística, llegando a la convicción de que la estadística analítica yace en los fundamentos de todo el conocimiento. 1892
  • 55.
    La idea de representatividad , en Estadística, es decir, de seleccionar aleatoriamente algunas unidades para llevar a cabo un estudio sobre una población, es antigua. En esta idea se fundamenta la técnica de muestreo . Sin embargo, durante mucho tiempo no fue aceptado, por la generalidad de los estadísticos.
  • 56.
    En 1895, fuepresentada formalmente en una reunión del Instituto Internacional de Estadística, en Berna, por el director de la Oficina Central de Estadística de Noruega, A. N. Kaier , bajo el nombre de método representativo . Despertó interés pero fue rechazado . Se presentó nuevamente en una reunión del Instituto Internacional de Estadística Roma, en 1926, y finalmente aceptado .
  • 57.
    Influyeron los trabajosen estudios sociales y económicos, de A. L. Bowley . A él se debe una aplicación de la teoría de inferencia a las encuestas por muestreo , realizado en 1906 .
  • 58.
    Jerzy Neyman Desarrollóel muestreo de poblaciones finitas , y la estimación por intervalos de confianza . 1934. Estableció que la selección aleatoria es la base de una teoría científica que permite predecir la validez de las estimaciones muestrales . También dejó establecida toda una filosofía sobre la eficiencia de la estrategia muestral .
  • 59.
    Egon Pearson Hijode Karl Pearson. Junto a Neyman presentó una teoría sobre cómo probar hipótesis , en base a datos . 1936. Resolvieron dificultades fundamentales para su comprensión, introduciendo las nociones de hipótesis alternativa , y los dos tipos de error , el de rechazar una hipótesis que es verdadera, y el de no rechazar una hipótesis que es falsa. Surge el Lema de Neyman-Pearson .
  • 60.
    Ronald Fisher Biólogo,genetista y estadístico inglés, ingresó a la estación experimental agrícola de Rotahmsted en 1919. Contribuyó a desarrollar técnicas claves para en la experimentación: La aleatorización , que constituye una protección contra la introducción de factores impredecibles. El diseño experimental en bloques, que permite el control de efectos de factores no deseados.
  • 61.
    El diseñofactorial , para el estudio del efecto de varios factores, simultáneamente. El análisis de varianza , técnica de análisis que permite separar las fuentes de variación y así evaluar su influencia. desarrolló una teoría de estimación eficiente, basada en la Función de Verosimilitud .
  • 62.
    Se crea unalarga controversia entre Ronald Fisher y Neyman y Pearson . Fisher visualizaba la prueba de hipótesis como un procedimiento mediante el cual el investigador podía formarse una opinión sobre alguna característica de la población, o parámetro . Neyman y Pearson vieron la prueba de hipótesis como un medio para que el investigador tomara una decisión sobre un parámetro de la población.
  • 63.
    William Gosset Químicoy matemático inglés. Trabajó como químico en la cervecería Guiness, en particular en Control Estadístico de Calidad . Publicaba sus trabajos de estadística bajo el seudónimo de Student . desarrolló el test T , basado en la distribución de probabilidad T de Student , introducida por él.
  • 64.
    George Snedecor Fuéuno de los pioneros de la Estadística en los Estados Unidos, al constituirse en fundador del Laboratorio de Estadística de la Iowa State University , en 1933, dedicado fundamentalmente a las aplicaciones a la agricultura. Trabajó en conjunto con Ronald Fisher, contribuyendo a desarrollar algunas de las ideas de él. En particular, son importantes sus contribuciones al Análisis de Varianza .
  • 65.
    William Cochran Nacidoen Escocia en 1909. Trabajó en la Iowa State University, junto con Snedecor. Hizo contribuciones al Diseño de Experimentos y a la Teoría del Muestreo . Se trasladó a Rothamsted, Inglaterra, donde tuvo contacto con Ronald Fisher, donde se involucró en aplicaciones médicas de la estadística.
  • 66.
    Harold Hotelling Economistay Estadístico nacido en 1895. Pionero en la combinación de Estadística Matemática y Economía. También trabajo con Ronald Fisher y aplicó algunas de sus técnicas. En particular al periodismo, ciencia política, demografía y alimentación. Es conocido en Estadística por sus trabajos en Análisis Multivariante , en particular por la distribucion de probabilidad T-Cuadrada de Hotelling , uhna generalización de la T de Student.
  • 67.
    Frank Wilcoxon Químicoy Estadístico nacido en Estados nUnidos en 1892. Contribuyó a la Estadística No-Paramétrica , en particular es suyo el test basado en rangos de Wilcoxon .
  • 68.
    Charles Spearman Psicólogonacido en 1863. Se preocupó de definir la inteligencia. Se le considera el primer psicometrista sistemático Fué pionero en el desarrollo del método del Análisis Multivariante denominado Análisis Factorial .
  • 69.
    L.L. Thurstone Nacióen Estados Unidos en 1887. De formación original ingeniero, trabajó junto a Thomas A. Edison . Realizó grandes aportaciones a la medición de la inteligencia y de las actitudes sociales. Defendió la explicación de la inteligencia como conjunto de siete capacidades o factores, también identificables mediante el análisis factorial .
  • 70.
    Abraham Wald Desarrollóla Teoría Estadística de Decisiones , y la Teoría de Muestreo Secuencial . También en otros campos, como Máxima Verosimilitud Asintótica , Estadística No-Paramétrica , Análisis Discriminante , Control de calidad , Modelos Lineales con Error en las Variables , entre otros.
  • 71.
    Andrey Kolmogorov Matemáticoy físico ruso. Planteó los fundamentos de la teoría axiomática de la probabilidad . Hizo contribuciones cruciales a la Teoría Algorítmica de la Aleatoriedad , a la Mecánica Estadística , a los Procesos Estocásticos , a la Teoría de la Información . Analizó la entropía en los texto literarios, lo que dio origen a una corriente de estudios sobre lingüística estadística .
  • 72.
    Calyampudi Radhakrishna RaoEstadístico Indio nacido en 1920. Hizo contribuciones en las áreas de Teoría de Estimación , Inferencia , Modelos Lineales , Análisis Multivariante , entre otras. Es conocido especialmente por la Cota de Crámer-Rao y el Teorema de Rao-Blackwell .
  • 73.
    En años recientesha habido un desarrollo de la Estadística de la mano del computador. Es así como se ha desarrollado la llamada Computación Estadística . El computador permite realizar operaciones repetitivas a alta velocidad. Cuando un problema es demasiado complejo como para encontrar soluciones analíticas, se pueden desarrollar métodos basados en la repetición.
  • 74.
    Por ejemplo, métodos que buscan aproximaciones a las soluciones óptimas mediante la repetición. Estos métodos dan origen a algoritmos computacionales que requieren mucho procesamiento.
  • 75.
    Entre estos métodos,están los más conocidos, como el Bootstrap , de B. Efron . El jacknife , la validación cruzada (cross validation), el Gibbs sampling . El Algoritmo EM , de Dempster , Laird y Rubin .
  • 76.
    Y muchos más,que aún están por descubrirse…..
  • 77.