a) Script por Fase: Planeación, desarrollo, revisión y Post Mortem.
b) PROXIES (métricas de desarrollo).
c) PIPS – Compromisos de mejor.
d) Método PROBE.
e) Mediciones de Calidad PSP.
Los marcos de trabajo ágiles como Scrum y Kanban, son de uso ampliamente conocido en la industria del desarrollo. Para gran parte de nosotros, no es desconocido el tradicional ciclo incremental y de retroalimentación continua de Scrum y la forma en que el trabajo es completado, por un equipo con objetivos comunes en un Sprint.
No obstante, menos conocido es el hecho del conocimiento y uso de métricas ágiles, en apoyo a la retroalimentación objetiva. Las métricas de agile permiten a los equipos construir hábitos de mejoramiento continuo, ayudan a visualizar el trabajo y la efectividad, y facilitan la identificación de debilidades, mediante el monitoreo de la experimentación.
Las métricas no deben ser usadas en reemplazo de la comunicación directa y continua: son más bien usadas para iniciar una conversación. Las mediciones objetivas ayudan a los equipos a tomar decisiones correctivas, para alinearse mejor a los objetivos y crear un ecosistema de crecimiento, más adecuado para el proyecto y equipo. Las métricas son de especial importancia en equipos y organizaciones, que inician una transición a métodos ágiles, pues proporcionan información objetiva y concreta, respecto de las iniciativas.
En esta presentación, conoceremos acerca de las métricas ágiles como Velocity, Feature Progression, Backlog Health, etc., estableciendo su propósito, forma de medición, aspecto de proyecto que retroalimentan y la forma en que apoyan a la creación de un equipo verdaderamente ágil.
Presentacion sobre cómo elaborar procesos de QA en proyectos de desarrollo de software desde una etapa temprana hasta la validación final del software.
Se realizará caso práctico con Selenium.
a) Script por Fase: Planeación, desarrollo, revisión y Post Mortem.
b) PROXIES (métricas de desarrollo).
c) PIPS – Compromisos de mejor.
d) Método PROBE.
e) Mediciones de Calidad PSP.
Los marcos de trabajo ágiles como Scrum y Kanban, son de uso ampliamente conocido en la industria del desarrollo. Para gran parte de nosotros, no es desconocido el tradicional ciclo incremental y de retroalimentación continua de Scrum y la forma en que el trabajo es completado, por un equipo con objetivos comunes en un Sprint.
No obstante, menos conocido es el hecho del conocimiento y uso de métricas ágiles, en apoyo a la retroalimentación objetiva. Las métricas de agile permiten a los equipos construir hábitos de mejoramiento continuo, ayudan a visualizar el trabajo y la efectividad, y facilitan la identificación de debilidades, mediante el monitoreo de la experimentación.
Las métricas no deben ser usadas en reemplazo de la comunicación directa y continua: son más bien usadas para iniciar una conversación. Las mediciones objetivas ayudan a los equipos a tomar decisiones correctivas, para alinearse mejor a los objetivos y crear un ecosistema de crecimiento, más adecuado para el proyecto y equipo. Las métricas son de especial importancia en equipos y organizaciones, que inician una transición a métodos ágiles, pues proporcionan información objetiva y concreta, respecto de las iniciativas.
En esta presentación, conoceremos acerca de las métricas ágiles como Velocity, Feature Progression, Backlog Health, etc., estableciendo su propósito, forma de medición, aspecto de proyecto que retroalimentan y la forma en que apoyan a la creación de un equipo verdaderamente ágil.
Presentacion sobre cómo elaborar procesos de QA en proyectos de desarrollo de software desde una etapa temprana hasta la validación final del software.
Se realizará caso práctico con Selenium.
Una serie de pasos predecibles que ayude a crear un resultado de alta calidad y a tiempo.
Es un conjunto estructurado de actividades para: Especificar, diseñar, implementar y probar software.
La Ingeniería de Software es el establecimiento y uso de principios robustos de la ingeniería a fin de obtener económicamente software que sea fiable y que funcione eficientemente sobre máquinas reales.
Cursillo Básico sobre bigdata y machine learning. Parte 5: al final se indican los componentes del path de certificación Arcitura, organismo que oficialmente otorga certificaciones en BigData. MinTIC bdguidance arcitura 2016.
Cursillo Básico sobre bigdata y machine learning. Parte 3: Con el uso de técnicas de MachineLearning, y a través de ejemplos prácticos se realiza la explicación de algunos algoritmos que pueden ser aplicables a casos de la industria. Algunos de los temas son: Clasificación de algoritmos de machine learning, Regresión, árboles de decisión, naive-bayes. MinTIC bdguidance arcitura 2016.
Cursillo Básico sobre bigdata y machine learning. Parte 2: ]: Se hace un recorrido por lo que se denomina la plataforma hadoop; posteriormente se muestran temas de visualización. El big data no sería nada si no se pueden explotar las masas de información a ser analizadas, y la estadistica/probabilidad son una parte que fundamenta este tipo de análisis, por lo cual retomamos algunos temas de estas áreas de conocimiento en pro de generar modelos de relevancia para la búsqueda de insights. MinTIC bdguidance arcitura 2016.
Cursillo Básico sobre bigdata y machine learning. Parte 1: Iniciamos con conceptos generales sobre los temas de analytics, como también con lo que se denomina Analítica tradicional, para posteriormente mostrar ejemplos de aplicabilidad del bigdata en la industria y definir lo que se denomina el ciclo de análisis para la generación de modelos de datascience. Los temas particulares son: Definición BigData, las 5V’s, Tipos de Analitica, Traditional BI & BigData, Ciclo de Analisis, BigData y BusinessCase.. MinTIC bdguidance arcitura 2016.
Cursillo Básico sobre bigdata y machine learning. Parte 0 Parte0 Sensibilización [0.25h]: Acorde a la relevancia del tema para esta época, se ilustra su aplicabilidad en la industria, se muestran las ramas que confluyen en este tipo de estudios y el perfil de un científico de datos como apoyo relevante para la búsqueda de insights para la empresa. De forma ilustrativa se muestran los temas a abarcar en el cursillo.MinTIC bdguidance arcitura 2016.
Introductory Slides About Business Intelligence concepts. It was made in 2012 for a 2 hour introduction of Business Intelligence, for a private seminar.
---------------------------------------------
Diapositivas introductorias sobre conceptos de inteligencia de negocios. Elaboradas en 2012 para una introducción sobre BI en un seminario privado.
Es un diagrama para La asistencia técnica o apoyo técnico es brindada por las compañías para que sus clientes puedan hacer uso de sus productos o servicios de la manera en que fueron puestos a la venta.
3Redu: Responsabilidad, Resiliencia y Respetocdraco
¡Hola! Somos 3Redu, conformados por Juan Camilo y Cristian. Entendemos las dificultades que enfrentan muchos estudiantes al tratar de comprender conceptos matemáticos. Nuestro objetivo es brindar una solución inclusiva y accesible para todos.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
Inteligencia Artificial y Ciberseguridad.pdfEmilio Casbas
Recopilación de los puntos más interesantes de diversas presentaciones, desde los visionarios conceptos de Alan Turing, pasando por la paradoja de Hans Moravec y la descripcion de Singularidad de Max Tegmark, hasta los innovadores avances de ChatGPT, y de cómo la IA está transformando la seguridad digital y protegiendo nuestras vidas.
Índice del libro "Big Data: Tecnologías para arquitecturas Data-Centric" de 0...Telefónica
Índice del libro "Big Data: Tecnologías para arquitecturas Data-Centric" de 0xWord escrito por Ibón Reinoso ( https://mypublicinbox.com/IBhone ) con Prólogo de Chema Alonso ( https://mypublicinbox.com/ChemaAlonso ). Puedes comprarlo aquí: https://0xword.com/es/libros/233-big-data-tecnologias-para-arquitecturas-data-centric.html
1. SESIÓN 03: CALIDAD
Indicar que prevenir los errores es mejor que cometerlos en fases posteriores. Además que los errores
funcionales son los mas costosos de encontrar. Para ello, incluyendo fases de
revisión/inspección/walkthrough es más efectivo. Ir extrayendo un checklist a partir del análisis de
errores cometidos históricamente. Hacer comparativa entre Appraisal Vs Test.
1
13. PSP Quality focus [10min]
Calidad: Lo que el usuario quiere
En el proceso, que permita basicamente producir un resultado “Bug free”
Que no afecten la operación, ni causen inconvenientes,
Atributos de calidad del software (ilities)
Functionality: lo que el usuario quiere: condiciones normales y anormales, pero no solo eso
Performance (desempeño):
Usability (claro): para el usuario final
Reliable (confiable/confidence): confiable en los resultados y que queden capturados los datos
13
14. Al principio del proyecto se piensa que todo es perfecto, pero se van introduciendo pequeños
“pescaditos” que representan los defectos en las primeras fases. Luego estos pescaditos van
madurando mas y mas. Al final del proyecto ya son unas ballenas o tiburones que a veces no se pueden
pescar ni siquiera. Parecen monstruos que no se pueden eliminar (“no silver bullet”/”no hay balas de
plata”).
Ver: http://www.scribd.com/doc/44038107/No-Silver-Bullets-Espanol
• Dentro de desarrollo, se cometen errores: [los que comete la persona al seguir los procesos (o la
metodologia)]
• Defectos ( los que se inyectan al producto: el software no tiene errores sino defctos)
• Fallas (los que percibe o reporta [ej: el carro no está funcionando bien]. quien lo recibe debe
encontrar el defecto asociado para poderlo corregir)
Manejar los defectos antes de que aparezcan
• Remover los defectos
• Analizar las causas de los defectos
• Prevenir la aparición de defectos,
Pero cómo se encuentran los defectos de toda índole, cómo se encuentran los defectos en el área azul
de la figura hoy en día?: A través de Testing
• La industria del software es la única tecnología moderna que deja que los problemas aparezcan en
testing para manejar la calidad
• Si se sigue así, los cronogramas nunca se cierran, no se puede predecir cuándo terminar, se termin
con productos pobres en términos de calidad.
• Incluso existe una fase que se llama “estabilización” para corregir problemas que se debieron
detectar antes.
Ejemplo: un programa de 50mil LOC, con 25 defectos/KLOC, va a tener: 1250 defectos en total, y que en
promedio se pueda solucionar cada bug con prueba y todo en 10 horas, serán 12500 horas de trabajo.
Calcular los años de ésta tarea
Se deben encontrar métodos más eficientes, dentro de los métodos existentes para capturar defectos
encontramos:
• Unit, Integration, System Test
• Reviews /Inspections /Walkthroughs (ver siguiente slide): se ejecutan antes de compilar, requieren
intervencion humana.
14
15. • Compiling/Static code analysis (Lint)
[APPRAISAL VS TEST]
Appraisal (valoracion previa, enfoque preventivo): analizar la logica de procesamiento
y encontrar el defecto. Saber en qué punto de la lógica se presentó el defecto:
manipular la logica del programa y poder corregir un error funcional
Test (prueba unitaria, enfoque reactivo): encontrar el error cuando se totea el
programa
14
16. En cuanto a especificación, se entregan unos requerimientos que van evolucionando hasta ser vasos de
uso y prueba.
Sin embargo debemos estar preparados para controlar lo que sucede internamente en el software que
hacemos: prevenir.
Verification: evaluar si cumple los requerimientos
Validation: asegurar que cumple la necesidad
Ver Modelo en V de ITIL> Transición de Servicios:
(http://itilv3.osiatis.es/transicion_servicios_TI/gestion_entregas_despliegues/planificacion_entregas.ph
p)
15
17. Las estrategias de revisión son el método más efectivo para mejorar la calidad. Algunos métodos o
estrategias son los siguientes:
• Personal review: el individuo que hace la revisión examina su código, con el fin de encontrar tantos
errores como sea posible. Es clave usar un checklist, derivado de las revisíones. Es aconsejable tomar
un descanso antes de iniciar la revisión y revisar uno a uno los puntos del checklist (OJO: no todos a
la vez). La idea es que se capturen también los errores más obvios.
• Inspection: el equipo o algún otro integrante revisa el producto. No se trata entonces de discutir los
problemas identificados sino que se colaborar en pro de corregirlos
• Walkthroughs: un diseño de un producto presentado ante una audiencia
• Debe existir una responsabilidad profesional respecto a las revisiones:
• Antes de pedir una inspeccion, se deben eliminar tantos defectos como sea posible: tener respeto
por el tiempo del otro
• En lugar de concentrarse en errores obvios, el par que revisa, observará que la lógica de negocio
fluya más que todo.
16
18. Principios de quality management, son expuestos en el slide:
• La calidad de un sistema es determinada por la calidad del peor de sus compoentes
[>] cuando se tiene un error en el que no funciona la aplciación, el usuario dice: este sistema no sirve
(no dice, el componente x no funciona)
• La calidad de un producto es governada por los individuos que lo desarrolaron
• La caliad de un producto es governada por el proceso usado para desarrollarlo
• La clave será entonces los skills, acuerdos y disciplina a nivel de proceso personal, para mejorar la
calidad del producto
17
19. Medidas de Calidad [20min]
Psp tiene varias medidas de calidad relacionadas con calidad
Las siguientes medidas de calidad se observan en PSP:
• Yield: es la efectividad de “cazar defectos”
• Yield de Fase: porcentaje de defectos en un programa, que son removidos en una fase
particular
• Yield de Proceso: pordentaje de defectos removidos antes de entrar a la fase de compilacion
• Appraisal Cost of quality (Appraisal COQ): porcentaje del tiempo de desarrollo gastado en prevención
de errores
• Failure COQ: porcentaje de tiempo gastado en fases reactivas (compilacion y testing)
• Appraisal to Failure Ratio (AF/R) = = Appraisal COQ / Failure COQ
• DefectRemovalRate [FASE-X] = Numero de defectos encontrados por hora en esa fase
• DRL [FASE-X/FASE-Y] (Defect removal leverage)= comparación del DefectRemovalRate entre 2 fases
cómo calcular los defectos por KLOC
Cómo calcular el DRL (defect removal leverage)
18
22. Quality Profile & Performance [40 min]:
• permite evaluar un perfil de calidad, saber cómo calcularlo y extraerlo
• Es derivado de 5 items que caracterizan la calidad del proceso de software, y que se normalizan en el
rango [0..1] y se presentan en un gráfico radial o de kiviat.
• Existe una medida que computa los 5 elementos y se llama el Indice-PQI. Un valor en este cómputo
menor a 0.5 significa que el componente puede tener una muy baja calidad.
• Si tenemos más de un componente, se toma el producto del Indice-PQI de todos los componentes.
21
23. Assignment 03: [20min] Checklists para fases DLDR y CR
Para aprender PSP2
• Hacer checklist: con los resultados de los assignments anteriores.
• La idea es definir un checklist de revision de codigo.
• Indicar que también existen checlists de revision del diseño.
Enviar el assignment: Archivo .zip con:
• Documento de checklist para DLDR
• Documento de checklist para CR
22
24. Tutorial: PSP2 [20min]
(1) Sacar una copia de los datos en el processdashboard (C/Tools/SaveDataBackup +
C/Tools/OpenDataset)
(2) 2 fases nuevas se adicionan al proceso PSP (DLDR,CR). Además se incorporan al proceso las
checklists. Se adiciona el plan de calidad
En el plan de calidad se estima el tiempo para ejecutar estas fases
Se estiman los defectos que se van a encontrar en dichas fases
Se disminuyen los defectos encontrados en las fases de UT y COMP
Se disminuye el tiempo estimado en UT acorde a la eficiencia esperada para remover defectos
en fases de DLDR y C
(3) Iniciar como en las fases anteriores: iniciar con la fase de planeación, cree un diseño conceptual en
la fase de planeacin y entrelo en el SizeEstimationTemplate. abra el Wizard de PROBE.
(4) Requerimeintos: camcular media y desviacion. Usar losta encadenada.
(5) Seguir la guia de estimar los tiempos de revision:
DLDR = 0.5* DLD
CR = 0.5 * CODE
Ejemplo: se gastan 32 minutos en DLD y 40 min en CODE, DLDR=16min,CR=20min
(6) La idea es reducir el tiempo de UT, eliminando los defectos que se produjeron antes de UT
(7) Seguir los puntos de la pagina 13 del tutorial para elegir un yield-target
Digamos que se escoje un Yield de 0.75
El primer paso es Calcular NumDefRemovidos (DLDR) .Para ello multiplicar Yield por defectos
inyectados en DLD
-----------> Yield (FaseX) = NumDefRemovidos (FaseX) /NumDefAEntradaFaseX
-----------> Yield (DLRD) = NumDefRemovidos (DLDR) /NumDefAEntradaFaseDLDR
-----------> Yield (DLRD) = NumDefRemovidos (DLDR) /NumDefInyectadosDLD
-----------> 0.75
= x / 3 . x = 2.25
-----------> El valor resultante es el NumDefRemovidos (DLDR)
El segundo es Calcular NumDefectosRemovidos (CR). Para ello:
-----------> x = (NumDefInyectadosDLD - NumDefRemovidos (DLDR) + NumDefInyectadosCODE) *
Yield(CR) .
-----------> x = (3 – 2.25 + 7) * 0.75 = (7.75)*(0.75) = 5.81
Ello debido a que el despejar de la formula de yiel de fase X da este resultado.
23
25. -----------> Yield (FaseX) = NumDefRemovidos (FaseX) /NumDefAEntradaFaseX
El tercero es calcular los errors restantes para obtener los errores que
corregirá la fase de UT . Para ello
-----------> x = (NumDefInyectadosDLD + NumDefInyectadosCODE) –
(NumDefRemovidos (DLDR) + NumDefRemovidos (DLDR)) .
Verificar que la suma final permanece igual-
23