Medidas de tendencia central,dispersion y de posicionYULIANA ROSAS
Concepto e importancia de las medidas de tendencia central.
- Tipos de promedios: matemáticos y estadísticos.
- Cálculo y aplicación de la media aritmética, promedio geométrico, la moda y la mediana.
- Cálculo a partir de series simples y agrupadas de las medidas de dispersión.
- Cálculo y aplicación a partir de series numéricas las medidas de posición.
Medidas de tendencia central,dispersion y de posicionYULIANA ROSAS
Concepto e importancia de las medidas de tendencia central.
- Tipos de promedios: matemáticos y estadísticos.
- Cálculo y aplicación de la media aritmética, promedio geométrico, la moda y la mediana.
- Cálculo a partir de series simples y agrupadas de las medidas de dispersión.
- Cálculo y aplicación a partir de series numéricas las medidas de posición.
Elaborar una presentación que describa las siguientes temáticas:
Escribir sentencias SQL SELECT para consultas con operadores de restricción, proyección y enlace.
Escribir sentencias SELECT para enlaces que incluyen tres o más tablas, autoenlaces y múltiples enlaces entre tablas.
Entender y ejemplificar el propósito de la cláusula GROUP BY usando el proceso de evaluación conceptual.
Escribir descripciones en español en sentencias documentadas de SQL.
Escribir las sentencias INSERT, UPDATE y DELETE para modificar las filas de una tabla.
Ipsos, empresa de investigación de mercados y opinión pública, divulgó su informe N°29 “Claves Ipsos” correspondiente al mes de abril, que encuestó a 800 personas con el fin de identificar las principales opiniones y comportamientos de las y los ciudadanos respecto de temas de interés para el país. En esta edición se abordó la a Carabineros de Chile, su evaluación, legitimidad en su actuar y el asesinato de tres funcionarios en Cañete. Además, se consultó sobre el Ejército y la opinión respecto de la marcha en Putre.
Diapositivas D.I.P.. sobre la importancia que tiene la interpol en HonduraspptxWalterOrdoez22
Es un conjunto de diapositivas creadas para la información sobre la importancia que tienen la interpol en honduras y los tratados entre ambas instituciones
Diapositivas D.I.P.. sobre la importancia que tiene la interpol en Honduraspptx
algoritmos en R Studio
1. UNIVERSIDAD REGIONAL AUTÓNOMA DE LOS ANDES
“UNIANDES”
NOMBRE
JUAN ALARCÓN
NIVEL
NOVENO SISTEMAS
MATERIA
SISTEMA DE SOPORTE A TOMA DE DECISIONES
TUTOR
LUIS GUALLPA
Evaluación parcial 2
2. Objetivos
1. El análisis de complejidad de los algoritmos, así como en el diseño e
implementación de éstos con las técnicas y métodos más usados.
2. Desarrollar habilidades en el uso de las técnicas de análisis y diseño de algoritmos
computacionales.
3. Analizar la eficiencia de diversos algoritmos para resolver una variedad de
problemas, principalmente no numéricos más bien estadísticos.
4. diseñar y analizar nuevos algoritmos estadísticos para una empresa.
5. Reconocer y clasificar los problemas de complejidad polinómica y no
polinómica.
Fundamento Teórico
La razón fundamental de este desarrollo es comprobar la mejora del rendimiento que,
como se demuestra en este trabajo, puede obtenerse con la compilación de determinadas
partes del código. En esta memoria se desarrollan todas las temáticas necesarias para la
comprensión del objetivo de los algoritmos y las técnicas utilizadas. Esto incluye un
estado del arte sobre informática, estadística, Programación Dinámica, alineamiento y
análisis de secuencias estadísticas, matrices de puntuación, técnicas y tipos de
alineamiento, Agentes Inteligentes, entre otros.
3. DESARROLLO DE LAS PRÁCTICAS
Ejercicio 1
Arboles De Decisiones
Cargamos los paquetes necesarios con los para crear y visualizar arboles
Leemos los conjuntos de datos dim(wdbc);
4. Vemos que este conjunto tiene 569 muestras con 32 columnas
5. Esta línea de código nos muestra la base de datos con sus variables
wdbc$V7=as.numeric(recode(wdbc$V7, "'?'=NA"));
La siguiente codificación nos muestra una tabla x con un conjunto de datos 569objetos
y 32 variables
Nos da el conjuntó final
6. Esta sentencia nos da el tamaño de conjunto
# train (2/3), test (1/3)
N=dim(x)[1];
all=seq(1,N);
Hacemos el simple de 2/3 estas formaran el conjunto de entrenamiento y el tercio
restante formara el conjunto de test
# select 2/3 randomly
train=sort(sample(N,N*2/3.0));
test=setdiff(all,train);
xtrain=x[train,];
xtest=x[test,];
8. Crear el primer árbol usando parámetros predeterminados
# create first tree using default parameters
t1=rpart(as.factor(V11) ~ V2+V3+V4+V5+V6+V7+V8+V9+V10, data=xtrain,
method="class");
prp(t1, extra=1);
Vemos que hemos creado un árbol
Donde el nodo v10 pregunta al nodo V9 si la variable es menor que 0.19 si no loes este
nos lleva a un nodo considerado terminal de clase 0.2096
Caso contrario nos lleva a la variable V3 nos dice que si v3 mayor o igual a 16
9. Calculamos la matriz de confusión para cada uno de los dos conjuntos
# analyze how good is t1 as a classifier
confusionMatrix(table(xtrain$V11,y1train));
confusionMatrix(table(xtest$V11,y1test));
10. EJERCICIO 2 PCA
Ejemplo sintético con datos en formato pequeño.
Ingresamos los datos tanto de X como de Y
Calculamos la media tanto de X como de Y
Posteriormente tenemos que restar la media de cada uno de los valores ingresados tanto
de X como de Y
La matriz Data contiene dos columnas la cual es de X y la otra es de Y restadas sus
medias
11. Matriz de covarianza
Vectores de la matriz covarianza
Ejemplo con datos de alta dimensionalidad
De una base de datos de pacientes para identificar si uno de ellos tiene cáncer maligno o
benigno para la visualización en 2D.
Descargamos la base de datos del siguiente link:
dataCancer <- read.table("http://archive.ics.uci.edu/ml/machine-learning-
databases/breast-cancer-wisconsin/wdbc.data", sep=",");
En el programa nos saldrá lo siguiente cuanto la base de datos ya este descargada
12. Mediante este comando se reflejara los atributos de la base de datos
En la cual en la etiqueta V2 nos mostrara si el cáncer el benigno o maligno
B= benigno
M: maligno
Guardamos los siguientes datos para calcularlos
13. En la siguiente instrucción nos mostrara el cuadro de como contribuye el valor propio a
la variable ejecutada.
Al digitar este comando seleccionado nos quedamos con tan solo los componentes
14. Visualizaremos nuestros datos de componentes
Representando las etiquetas en la parte superior de la parcela 2D para señalar con
colores distintos.
15. EJERCICIO 3 SVM
set.seed(1011). Cargamos los datos
x = matrix(rnorm(400), 200, 2). Generaremos 200 puntos en 2 dimensiones
y = rep(c(-1, 1), c(100, 100)). Generamos las etiquetas -1 y 1
x[y == 1,] = x[y == 1,] + 4.5. Añadimos 4.5 a todos los puntos de la primera clase
16. plot(x, col = y + 3, pch = 19). Procedemos a graficar y observamos que se separaron los
puntos
library(e1071). Cargamos la librería
train=data.frame(x,y=as.factor(y)). Generamos un data frame
19. y = rep(c(-1, 1), c(100, 100)). Generamos las etiquetas -1 y 1
x[y == 1,] = x[y == 1,] + 3. Añadimos 3 a todos los puntos de la primera clase
plot(x, col = y + 3, pch = 19). Dibujaremos el plano
22. Conclusiones
Manejar los datos con R studio y otras herramientas para la creación de ficheros
destinados al análisis conocer métodos de simulación para evaluar procedimientos y
tomar decisiones en la representación de datos estadísticos. También podremos ser
capaces de describir y depurar los datos mecanizados de forma automática podremos
reorganizar la información de los datos para una lectura y verificación ágil o un análisis
posterior.
Recomendaciones
Tener r studio completo con su respectiva licencia por que el demo no nos va a permitir
trabajar cómodamente con todas sus librerías y no obtendremos los resultados que
deseamos