1. TALLER-PARCIAL: NOCIONES DE ESTADÍSTICA
Alfredo A.Córdoba G
8-354-735
1. Describa el proceso histórico que dio origen a la ciencia estadística.
R- Con el nacimiento de la historia, podemos observar los primeros antecedentes de la
actividad estadística. En la edad antigua, vemos que el mundo clásicoromanoefectuó los
primeros censos con el objeto de obtener datos sobre susurecursos económicos y humanos
para la toma de decisiones en la administración socioeconómica y política (M. Arribas &
Barbut, 2014).
La historia de la estadística es fascinante y abarca un amplio período de tiempo,
reflejando el desarrollo de la sociedad y la ciencia en general. A continuación, describe el
proceso histórico que dio origen a la estadística:
a. Antiguas Civilizaciones: El uso de técnicas básicas de recopilación de datos puede
rastrearse hasta antiguas civilizaciones. Por ejemplo, los egipcios utilizaron censos para
la planificación agrícola y fiscal, y en el Imperio Romano se realizaron recuentos de
población y recursos. (M. Arribas & Barbut, 2014).
b. Edad Media y Renacimiento: Durante la Edad Media, la estadística se utilizó
principalmente para la administración de estados. Los gobiernos recopilaban datos
sobre tierras, población y riquezas. En el Renacimiento, el creciente interés por las
ciencias naturales y el humanismo fomentó un mayor énfasis en la recopilación y
análisis de datos. (M. Arribas & Barbut, 2014).
c. Siglo XVII - Probabilidad y Estadística Teórica: El siglo XVII marcó el comienzo de la
teoría de la probabilidad, con matemáticos como Pierre de Fermat y Blaise Pascal que
sentaron las bases de esta disciplina. La teoría de la probabilidad se desarrolló
inicialmente en el contexto de los juegos de azar, pero pronto encontró aplicaciones en
campos más amplios. (M. Arribas & Barbut, 2014).
d. Siglo XVIII - Estadística Descriptiva y Comparativa: En el siglo XVIII, la estadística
comenzó a evolucionar como una disciplina independiente. Se utilizaba principalmente
para describir y comparar datos de diferentes países o regiones, especialmente en
contextos políticos y económicos. (M. Arribas & Barbut, 2014).
2. e. Siglo XIX - Auge de la Estadística Moderna: El siglo XIX fue testigo de un gran avance
en la estadística, con la introducción de conceptos como la regresión y la magnitud por
Francis Galton y Karl Pearson. Adolphe Quetelet aplicó métodos estadísticos a los
datos sociales y fue fundamental en el desarrollo de la estadística como una
herramienta para entender la sociedad. (M. Arribas & Barbut, 2014).
f. Principios del Siglo XX - Estadística Inferencial: A principios del siglo XX, Ronald A.
Fisher, entre otros, desarrolló la estadística inferencial, que permite hacer
generalizaciones a partir de muestras de datos. Este período también vio el desarrollo
de pruebas de hipótesis, análisis de varianza y diseño de experimentos. (M. Arribas &
Barbut, 2014).
g. Era de la Computación y Más Allá: Con el advenimiento de las computadoras en el
siglo XX, la capacidad de analizar grandes conjuntos de datos se expandió
enormemente, llevando a la estadística a nuevas fronteras. La estadística se ha vuelto
integral en campos tan diversos como la biología, la economía, la ingeniería, la
medicina, las ciencias sociales, y más recientemente, en el Big Data y la inteligencia
artificial.(M. Arribas & Barbut, 2014).
A lo largo de los siglos, la estadística ha evolucionado de ser un método para recopilar
datos a una ciencia integral que abarca la recopilación, análisis, interpretación y
presentación de datos. Ha sido y sigue siendo una herramienta crucial para la toma de
decisiones en múltiples disciplinas y sectores. (Mora Charles, 2018).
2- ¿En qué consiste la teoría combinatoria?
R- La teoría combinatoria es una rama de las matemáticas que estudia las colecciones
finitas de objetos que satisfacen ciertos criterios específicos, y en particular, se preocupa
por "contar" los objetos en esas colecciones (combinatoria enumerativa), decidir cuándo
ciertos criterios pueden ser satisfechos. y construir y analizar objetos que cumplan los
criterios (como en diseño combinatorio y teoría de gráficos), así como encontrar "objetos
más grandes" o "más pequeños" (combinatoria extrema). (Matus, 2010).
Está muy relacionado con la estadística, la teoría de probabilidades y la teoría de gráficos,
y tiene aplicaciones en una amplia gama de campos, incluyendo la informática, la física y la
biología. La teoría combinatoria se divide en:
3. a. Combinatoria Enumerativa: Se enfoca en la cuenta de la cantidad de ciertas
estructuras combinatorias.
b. Combinatoria Analítica: Utiliza herramientas de análisis complejo y otras áreas de
las matemáticas para estudiar propiedades enumerativas.
c. Combinatoria Geométrica: Se ocupa de la combinatoria de estructuras
geométricas.
d. Combinatoria Algebraica: Incluye temas como la teoría de grupos y el uso de
técnicas algebraicas para resolver problemas combinatorios.
e. Combinatoria Topológica: Utiliza conceptos de topología para resolver problemas
de conflicto.
f. Teoría de Grafos: Estudia las propiedades de los grafos, que son estructuras
compuestas de vértices (o nodos) conectados por aristas. (Lind, 2020).
La teoría combinatoria tiene una multitud de aplicaciones prácticas, como la
optimización de redes, la teoría de la codificación, la asignación de recursos y la toma de
decisiones en campos como la ingeniería y la logística. Además, es fundamental para el
análisis de algoritmos en la informática, especialmente en lo que respeta a la eficiencia de
los algoritmos y la estimación de su complejidad.(Lind, 2020).
Respecto a la imagen que adjuntaste, como mi capacidad actual no incluye la interpretación
de imágenes para contenido textual matemático o técnico, no puedo ofrecer una explicación
específica basada en esa imagen. Si tiene alguna pregunta relacionada con la teoría
combinatoria o un problema específico de esta área, estará encantado de ayudarle con una
explicación detallada.
3. Menciona a los precursores y los fundadores del cálculo de probabilidades.
R- El cálculo de probabilidades, como campo matemático, tiene sus orígenes en el estudio
de los juegos de azar y situaciones de la vida real que involucran incertidumbre y suerte.
Algunos de los precursores y fundadores más destacados de la teoría de probabilidades
son:
Gerolamo Cardano (1501–1576): Aunque su trabajo no fue publicado durante su vida,
Cardano obtuvo importantes contribuciones iniciales al concepto de probabilidad, sobre
todo en el contexto de los juegos de azar. (Triola, 2014)
4. Blaise Pascal (1623–1662): Junto con Pierre de Fermat, Pascal sentó las bases de la teoría
de probabilidades a través de su correspondencia sobre problemas de juegos de azar. Este
intercambio es considerado por muchos como el comienzo formal de la teoría de
probabilidades.(Webster, 2000).
Pierre de Fermat (1607–1665): A menudo trabajando en colaboración con Pascal, Fermat
desarrolló métodos para calcular probabilidades que fueron fundamentales para el
desarrollo del campo.(Mora Charles, 2018).
Christiaan Huygens (1629–1695): Publicó el primer libro sobre probabilidad, "De
Ratiociniis in Aleae Ludo", que explicaba las ideas de Pascal y Fermat y presentaba el
concepto de valor esperado.(Mora Charles, 2018).
Jacob Bernoulli (1654–1705): Hizo avances significativos con su obra "Ars Conjectandi"
publicada póstumamente en 1713. Propuso el Teorema del Límite Central y la Ley de los
Grandes Números, principios fundamentales en probabilidad y estadística.(Mora Charles,
2018).
Thomas Bayes (1701–1761): Contribuyó con el Teorema de Bayes, que relaciona las
probabilidades condicionales y marginales y es una base para la inferencia estadística.
Pierre-Simon Laplace (1749–1827): Consolidó y expandió el trabajo de sus predecesores
en su obra "Théorie Analytique des Probabilités", donde presentó la regla de sucesión y
avanzó en la teoría de errores y el método de mínimos cuadrados. (Mora Charles, 2018).
Estos matemáticos y sus contemporáneos desarrollaron las ideas iniciales que
eventualmente se transformarían en la moderna teoría de probabilidades, y sus conceptos
continúan siendo fundamentales en las estadísticas y diversas aplicaciones científicas y de
ingeniería. (Mora Charles, 2018).
4. ¿Qué aportó Christiaan Huygens?
Christiaan Huygens fue un matemático, físico y astrónomo holandés que realizó
contribuciones significativas en varios campos de la ciencia. En el contexto de la teoría
de la probabilidad, Huygens es especialmente conocido por su obra "De Ratiociniis in Ludo
Aleae" ("Sobre el Razonamiento en Juegos de Azar"), escrita en 1657, que es considerada
uno de los primeros textos formales sobre la materia. (Márquez, 2017).
En su libro, Huygens presentó los conceptos de probabilidad matemática utilizando
problemas de juegos de azar. Aportó varios conceptos fundamentales:
5. a. Valor Esperado: Huygens fue uno de los primeros en formalizar y utilizar el concepto
de valor esperado, una idea central en la teoría de la probabilidad que describe la
media ponderada de todas las posibles ganancias de un juego de azar, considerando
sus respectivas probabilidades.
b. Problemas de Probabilidad: Resolvió problemas de probabilidad que habían sido
discutidos en la correspondencia entre Blaise Pascal y Pierre de Fermat, y
desarrollaron métodos generales para calcular probabilidades en situaciones de
juegos de azar. (Márquez, 2017).
c. Principios Combinatorios: Utilizó principios combinatorios para resolver problemas
de probabilidad, contribuyendo así a la base matemática que más tarde se
desarrollaría en la combinatoria.
d. Influencia Académica: Su libro influenció a otros matemáticos de su época y fue
utilizado como un texto de referencia importante en el desarrollo posterior de la teoría
de la probabilidad. (M. Arribas & Barbut, 2014).
La obra de Huygens puso las bases para que otros matemáticos posteriores, como
Jacob Bernoulli y Pierre-Simon Laplace, desarrollaran aún más la teoría de la probabilidad.
A través de su enfoque riguroso y sistemático, contribuyó a transformar las ideas intuitivas
sobre el azar y las probabilidades en una rama formal de las matemáticas.(M. Arribas &
Barbut, 2014).
5. ¿Qué investigó J. Graunt y qué negocio ayudó a consolidar?
John Graunt fue un estadístico inglés y uno de los primeros demógrafos de la historia. En
1662, publicó su obra "Observaciones naturales y políticas realizadas sobre las facturas de
mortalidad", que es considerada una de las primeras y más importantes contribuciones a la
ciencia estadística y la demografía.(M. Arribas & Barbut, 2014)
En su investigación, Graunt analizó las "Facturas de Mortalidad" en Londres. Estas facturas
eran registros semanales de todas las muertes y sus causas reportadas en la ciudad. A
partir de este análisis, Graunt pudo:
a. Establecer Patrones de Mortalidad: Identificó patrones regulares en las tasas de
mortalidad y natalidad.
b. Estimar la Población: Hizo estimaciones sobre la población de Londres utilizando
los datos de las facturas.
6. c. Analizar las Enfermedades y Sus Impactos: Examinó la distribución de las causas
de muerte, incluyendo epidemias como la peste.
d. Desarrollar Métodos Estadísticos: Introducción a métodos estadísticos básicos
para analizar datos y hacer inferencias sobre la salud y la sociedad. (Márquez, 2017).
El trabajo de Graunt ayudó a consolidar el negocio de los seguros de vida. Al
proporcionar datos fundamentales sobre la probabilidad de muerte en diferentes edades y
por distintas causas, permitió a las compañías de seguros calcular primas basadas en
riesgos más precisos. Además, sus métodos para analizar las "Facturas de Mortalidad"
pueden considerarse un precursor de las técnicas modernas de estadísticas vitales, que
son esenciales en la planificación de la salud pública y la epidemiología (Cárdenas Antúnez,
2014).
El trabajo de Graunt, junto con el de sus contemporáneos, marcó el comienzo de la
demografía como una ciencia y desarrolló las bases para el uso de estadísticas en la
planificación y administración pública. Su enfoque analítico y sistemático para comprender
los datos de la población fue innovador para la época y tuvo un impacto duradero en la
forma en que los gobiernos recopilan y utilizan la información demográfica.(Martinez, 2020).
6. Indique la subclasificación de la estadística y explique en qué
consiste cada una.
La estadística, como ciencia, se subclasifica principalmente en dos grandes ramas: la
estadística descriptiva y la estadística inferencial. Cada una tiene un enfoque y aplicaciones
específicas:
A- Estadística Descriptiva
a. Definición: La estadística descriptiva consiste en el conjunto de técnicas utilizadas
para describir y resumir conjuntos de datos. No está diseñado para hacer inferencias
más allá de los datos analizados, sino para presentar de manera clara y comprensible
la información contenida en ellos.
b. Métodos y herramienta: Incluye la elaboración de gráficos, tablas, medidas de
tendencia central (como la media, mediana y moda) y medidas de dispersión (como
el rango, la varianza y la desviación estándar).
7. c. Objetivo: Proporcionar una visión general de los datos, facilitando la identificación
de patrones, tendencias y anomalías.(Puente Viedma, 2018).
B- Estadística Inferencial:
a. Definición: La estadística inferencial utiliza muestras de datos para hacer
estimaciones, decisiones, predicciones o explicaciones sobre una población más
grande. Se basa en la teoría de la probabilidad para formular dichas inferencias de
manera cuantificada.
b. Métodos y Herramientas: Incluye la estimación de parámetros, pruebas de
hipótesis, análisis de regresión, análisis de varianza (ANOVA), y la construcción de
intervalos de confianza.
c. Objetivo: Hacer generalizaciones sobre una población a partir de una muestra,
entendiendo que siempre hay un grado de incertidumbre asociado con estas
generalizaciones.(Puente Viedma, 2018).
Estas dos ramas de la estadística son complementarias. La estadística descriptiva a
menudo es el primer paso en el análisis de datos, proporcionando una comprensión básica
de las características de los datos. La estadística inferencial se utiliza después para hacer
predicciones o inferencias sobre una población más grande basándose en los datos
recogidos de una muestra representativa. Juntas, proporcionan herramientas poderosas
para el análisis de datos en una multitud de campos, desde la ciencia y la medicina hasta
la economía y la sociología.
7. Mencione las 5 aplicaciones de la estadística que aparecen en el
documento de referencia.
Las apicaciones de la estadistica pueden ser resumidas en los siguientes
elementos:
a. Para la organización y exposición de datos: Gráficos, Tablas y Cuadros.
b. En modelos para hacer análisis de variables y pronósticos de eventos.
c. Agregación descriptiva de datos y evaluación de la variabilidad: (medias,
mediana, moda, varianza, etc.).
d. Pruebas de Hipótesis.
e. Diseño Estadistico de Experimentos. (Bracho, 2020, p. 7).
8. 8. ¿Qué es un estadístico y un parámetro?
En estadística, los términos "estadístico" y "parámetro" tienen significados específicos y
distintos:
A- Estadístico:
a. Definición: Un estadístico es una medida que se calcula a partir de los datos de una
muestra. Es una cantidad numérica que resume o describe alguna característica de
la muestra.
b. Ejemplos: La media muestral, la mediana muestral, la desviación estándar muestral
y la proporción muestral son todos ejemplos de estadísticas. Estos valores pueden
cambiar de una muestra a otra, incluso cuando se extraen del mismo grupo
poblacional. (Puente Viedma, 2018).
B- Parámetro:
a. Definición: Un parámetro es una medida que se utiliza para representar una
característica determinada de toda la población. A diferencia de un estadístico, un
parámetro es una constante fija que no varía, aunque en la práctica rara vez se
conoce su valor exacto.
b. Ejemplos: La media poblacional, la desviación estándar poblacional y la proporción
poblacional son ejemplos de parámetros. Estos valores se consideran constantes
para una población dada. (Puente Viedma, 2018).
La distinción es fundamental en estadística inferencial, donde se utilizan estadísticas
para estimar los parámetros poblacionales. Por ejemplo, una encuesta podría usar los
medios de una muestra (un estadístico) para estimar los medios de ingresos de toda una
población (un parámetro).
La precisión de estos estadísticos como estimadores de los parámetros se puede
evaluar a través de diferentes métodos estadísticos, como el cálculo de intervalos de
confianza.
9. 9. Describa las propiedades cuantitativas de los conjuntos de datos.
Las propiedades cuantitativas de los conjuntos de datos se refieren a aquellas
características que pueden ser medidas y expresadas numéricamente. Estas propiedades
se usan para resumir y describir la distribución de los datos. Las principales incluyen:
A- Medidas de Tendencia Central:
a. Medios: El promedio de los datos. Suma todos los valores y los divide por el número
total de observaciones.
b. Mediana: El valor medio en un conjunto de datos ordenados. Divida el conjunto de
datos en dos partes iguales.
c. Moda: El valor que aparece con mayor frecuencia en un conjunto de datos.(Márquez,
2017).
B- Medidas de Dispersión o Variabilidad:
a. Rango: La diferencia entre el valor más alto y el más bajo en el conjunto de datos.
b. Varianza: El promedio de las diferencias al cuadrado entre cada valor y la media del
conjunto de datos.
c. Desviación Estándar: La raíz cuadrada de la variación, proporciona una medida de
la dispersión de los datos alrededor de la media.
d. Coeficiente de Variación: La desviación estándar dividida por la media, expresada
como porcentaje, útil para comparar la variabilidad entre diferentes conjuntos de
datos.(Márquez, 2017).
C- Medidas de Forma:
a. Asimetría: Una medida de la simetría de la distribución de datos. Una distribución
simétrica tendrá una asimetría cercana a cero, mientras que una asimetría positiva o
negativa indica cola hacia la derecha o hacia la izquierda, respectivamente.
b. Curtosis: Una medida de la 'altitud' y 'anchura' de las colas de la distribución de
datos. La curtosis indica la presencia de valores atípicos y la agudeza de la
distribución.(Márquez, 2017).
D- Medidas de posición:
a. Cuartiles: Divide el conjunto de datos en cuatro partes iguales. El segundo cuartil es
la mediana, y el primero y el tercer cuartil son los puntos medios entre la mediana y
los extremos más bajos y más altos de los datos, respectivamente.
10. b. Percentiles: Puntos en el conjunto de debajo de datos de los cuales cae un cierto
porcentaje de observaciones.(Márquez, 2017).
E- Medidas de relación:
a. Covarianza: Mide el grado en que dos variables cambian juntas.
b. Coeficiente de Correlación: Mide la fuerza y la dirección de la relación lineal entre
dos variables.
Estas propiedades son fundamentales para la estadística descriptiva y la
interpretación de los datos, permitiendo entender mejor la naturaleza de los datos
recopilados y proporcionando la base para el análisis estadístico posterior.(Márquez, 2017).
10. ¿Qué son Variables Discretas y Variables Continuas?
Las variables discretas y continuas son dos tipos fundamentales de variables
cuantitativas que describen cómo pueden variar los datos dentro de un conjunto. Aquí están
las definiciones:
A- Variables Discretas:
a. Definición: Son aquellas que toman valores específicos y distintos. Estas variables
se cuentan y no se dividen en partes más pequeñas.
b. Ejemplos: El número de hijos en una familia, la cantidad de autos en un
estacionamiento, o el número de preguntas correctas en un examen. No puedes
tener 2,5 hijos o 3,7 autos; sólo cuentas números enteros. (Solano et al., 2018).
B- Variables continuas:
a. Definición: Son variables que pueden tomar cualquier valor dentro de un intervalo o
rango. Estas variables se miden, y los valores pueden ser fracciones o decimales.
b. Ejemplos: La altura de una persona, el peso, la temperatura o el tiempo. Puedes
tener una altura de 1,75 metros o un tiempo de 3,67 segundos, ya que estos valores
se pueden medir con precisión arbitraria. (Solano et al., 2018).
Ambos tipos de variables son fundamentales en el análisis estadístico y se tratan de
manera diferente en términos de las herramientas estadísticas y gráficas aplicables a cada
una. Por ejemplo, las variables discretas suelen representarse en gráficos de barras,
11. mientras que las variables continuas suelen ilustrarse mediante histogramas y gráficos de
líneas.
11. ¿Qué son las tablas de frecuencia, para qué sirven y describa
los pasos para construir una tabla de frecuencias?
Las tablas de frecuencia son herramientas estadísticas utilizadas para organizar y
representar los datos de manera resumida. Muestran con qué frecuencia ocurre cada valor
en un conjunto de datos, lo que ayuda a comprender la distribución de los datos.
Para qué sirven:
Permiten visualizar rápidamente cómo están distribuidos los datos a lo largo de
diferentes valores.
Son útiles para identificar patrones, como el valor más común (moda).
Facilitan la realización de cálculos estadísticos posteriores, como la determinación
de medianas y cuartiles.
Son la base para la creación de gráficos de barras e histogramas. (Triola, 2014).
Pasos para construir una tabla de frecuencias:
a. Recopilar Datos: Empieza con un conjunto de datos que desees analizar.
b. Elegir intervalos (para datos continuos): Si los datos son continuos, se deben dividir
en intervalos o clases. La amplitud de los intervalos debe ser constante y cubrir todo
el rango de los datos.
c. Listar los Valores o Intervalos: Crea una lista de los valores únicos (para datos
discretos) o intervalos de clase (para datos continuos) en una columna vertical.
d. Contar Frecuencias: Para cada valor o intervalo, cuenta cuántas veces aparece en
el conjunto de datos y registra este número en la columna de frecuencia. (Triola,
2014).
e. Frecuencias Relativas (opcional): Puedes calcular la frecuencia relativa de cada
valor o intervalo dividiendo la frecuencia de cada uno por el total de observaciones.
f. Frecuencias Acumuladas (opcional): La frecuencia acumulada se calcula
sumando la frecuencia de un valor o intervalo a la suma de las frecuencias de todos
los valores o intervalos anteriores.
12. g. Revisar y Verificar: Asegúrese de que las frecuencias sumen el número total de
observaciones. Para datos continuos, verifique que no haya solapamientos o huecos
entre intervalos.
h. Presentar la Tabla: Organiza la información de manera clara y presentable,
preferiblemente con las columnas etiquetadas apropiadamente. (Triola, 2014).
Al final, la tabla de frecuencias proporciona una visión compacta de los datos,
mostrando cuántas veces se presenta cada valor o rango de valores dentro del conjunto
total de datos recopilados.
13. Bibliografía.
Bracho, R. (2020). Introducción a la Estadistica: Apuntes de Estadistica Aplicada y Básica.
[dataset].
Cárdenas Antúnez, R. J. (2014). Estadística en la educación. Editorial Digital UNID.
https://elibro.net/es/ereader/udelistmo/41242
Lind, D. (2020). ESTADISTICA APLICADA NEGOCIOS Y ECONOMIA CON CONNECT
(1a edición (6 de febrero de 2020)). McGraw -Hill Interamericana de España.
M. Arribas, J., & Barbut, M. (2014). Estadistica y sociedad. UNED - Universidad Nacional
de Educacion a Distancia. https://elibro.net/es/lc/udelistmo/titulos/48769
Márquez, H. R. (2017). Iniciación en la Estadística Aplicada a la Investigación.
Martinez, E. (2020). Estadistica. Universidad Abierta para Adultos (UAPA).
https://elibro.net/es/lc/udelistmo/titulos/175596
Matus, R. (2010). Estadística. Instituto Politécnico Nacional.
https://elibro.net/es/ereader/udelistmo/76119?page=56
Mora Charles, M. S. de. (2018). Historia de la probabilidad y de la estadistica. UNED -
Universidad Nacional de Educacion a Distancia.
https://elibro.net/es/lc/udelistmo/titulos/48925
Puente Viedma, C. de la. (2018). Estadística descriptiva e inferencial. Ediciones IDT.
https://elibro.net/es/ereader/udelistmo/59931?page=198
Solano, H. L., Cabrera, J. A., & Lozano, K. F. (2018). Introducción a la estadística con
aplicaciones en Ciencias Sociales.
Triola, M. F. (2014). ESTADISTICA 12 ED.
Webster, A. L. (2000). Estadistica Aplicada a Los Negocios y La Economia.