Federico Toledo presenta sobre temas de testing técnico como automatización de pruebas y pruebas de rendimiento. Explica conceptos como casos de prueba, automatización con herramientas como Selenium y GXtest, y diseño de pruebas de rendimiento. También introduce las herramientas Monkop y Open Device Lab para realizar pruebas en diferentes dispositivos de forma automatizada.
Evento CDA Abstracta - Perú 2015 - Testing de performance y testing automátic...Federico Toledo
Charla sobre testing de performance y testing automatizado, centrado en las herramientas que nos permiten realizar estas tareas, pero sin dejar de lado la importancia de la metodología para aprovechar el máximo provecho que se le pueden sacar a estas herramientas.
Esto fue en el marco del evento organizado por CDA-Perú, en el que se presentó la alianza estratégica entre CDA y Abstracta, a través de la cual se ofrecen servicios especializados de testing automatizado y performance a empresas de Perú.
Mejores prácticas para testing de apps móvilesSoftware Guru
Conforme las apps pasan de ser una curiosidad, a un canal para atraer y atender a los clientes de un negocio, la calidad de dichas apps se convierte en un elemento fundamental. Una app de mala calidad puede provocar desde una mala imagen hacia los clientes, hasta huecos de seguridad o interrupciones en la operación del negocio.
Mejores prácticas para testing de aplicacionesSoftware Guru
http://sg.com.mx/sgce/2013/sessions/mejores-pr%C3%A1cticas-para-testing-aplicaciones
Se mostrarán las mejores prácticas para la generación de las diferentes tipos de pruebas que existen para las aplicaciones antes de salir a producción.
Evento CDA Abstracta - Perú 2015 - Testing de performance y testing automátic...Federico Toledo
Charla sobre testing de performance y testing automatizado, centrado en las herramientas que nos permiten realizar estas tareas, pero sin dejar de lado la importancia de la metodología para aprovechar el máximo provecho que se le pueden sacar a estas herramientas.
Esto fue en el marco del evento organizado por CDA-Perú, en el que se presentó la alianza estratégica entre CDA y Abstracta, a través de la cual se ofrecen servicios especializados de testing automatizado y performance a empresas de Perú.
Mejores prácticas para testing de apps móvilesSoftware Guru
Conforme las apps pasan de ser una curiosidad, a un canal para atraer y atender a los clientes de un negocio, la calidad de dichas apps se convierte en un elemento fundamental. Una app de mala calidad puede provocar desde una mala imagen hacia los clientes, hasta huecos de seguridad o interrupciones en la operación del negocio.
Mejores prácticas para testing de aplicacionesSoftware Guru
http://sg.com.mx/sgce/2013/sessions/mejores-pr%C3%A1cticas-para-testing-aplicaciones
Se mostrarán las mejores prácticas para la generación de las diferentes tipos de pruebas que existen para las aplicaciones antes de salir a producción.
Jornada de Calidad 2015 (Universidad ORT, Buenos Aires, Argentina) - Mobile t...Federico Toledo
El testing de aplicaciones mobile es uno de los grandes desafíos que se presenta hoy en día por la diversidad de dispositivos y configuraciones existentes. Asegurar que la aplicación funcione en todos los dispositivos, que sea rápida cuando la utilizan muchas personas y que sea segura, son las inquietudes e incertidumbres que nos atacan.
¿Qué necesitamos saber? ¿En qué herramientas nos podemos apoyar? ¿Qué hay de nuevo con respecto al testing de los sistemas que venimos probando? ¿Qué pasa con la usabilidad, cómo la probamos? Estas y otras preguntas son las que estaremos abordando en esta charla, compartiendo nuestras experiencias e investigación al respecto.
Los Pecados Capitales en la Automatización de Pruebas de Software.Software Guru
La automatización de pruebas de software ha ido en aumento en el número de testers y empresas que ven una inversión en éste tipo de pruebas, solo que al momento de querer implementarlas cometen errores por falta de conocimiento del tema.
En la sesión presentaremos los errores más comunes que se pueden llegar a cometer y se dará una propuesta de como implementar la automatización de una manera más adecuada.
Siguiendo con los apuntes de Ingeniería de Software para la Ingeniería en Computación, de la Universidad Tecnologica de la Mixteca en Huajuapan de León, Oaxaca México.
Preview de los slides para el curso "Automate Testing"
Los slides completos del curso "Automate Testing" para .NET se encuentran en
http://www.slideshare.net/snahider/automate-testing-net
Las pruebas de software (software testing) se basan en la investigación empírica y técnica que permite proporcionar información objetiva e independiente sobre la calidad de la aplicación a la parte interesada o stakeholder. Forma parte crítica del proceso de control de calidad. Es por ello que no se puede subestimar las pruebas de software, si se desea garantizar un producto de calidad a los usuarios.
¿Cómo convertirse en un Tester de verdad?Software Guru
¿Cómo convertirse en un Tester de verdad?
¿Tester de verdad? En México, existen organizaciones que siguen sin ver la importancia de incluir el testing en el desarrollo de software aún con las pérdidas millonarias que esto ocasiona a nivel global. No obstante en esa pequeña parte del subconjunto de organizaciones que SI agregan al testing en su metodología, hay algunas que lo agregan con el objetivo de: “verificar que todo esté bien“ . . .pero esos. . . esos no son testers.
¿Cómo convertirse en un tester de verdad?
La presentación pretende cubrir algunos puntos relacionados a:
- El objetivo del testing.
- El estatus del testing en México y a nivel global.
- La curiosidad, creatividad y pensamiento lateral como herramientas fundamentales del tester.
- La importancia de la adaptación al contexto.
- Testing basado en riesgo.
- Testing vs Checking.
- El rol del tester.
Con Selenium 2.0 y Webdriver la ejecución de TDD y BDD se ve beneficiado por las fortalezas de ambos proyectos.
Introduciremos el API Java basado en PageObjects y veremos ejemplos de creación de pruebas cross-browser para un interfaz de aplicación web con Ajax
Jornada de Calidad 2015 (Universidad ORT, Buenos Aires, Argentina) - Mobile t...Federico Toledo
El testing de aplicaciones mobile es uno de los grandes desafíos que se presenta hoy en día por la diversidad de dispositivos y configuraciones existentes. Asegurar que la aplicación funcione en todos los dispositivos, que sea rápida cuando la utilizan muchas personas y que sea segura, son las inquietudes e incertidumbres que nos atacan.
¿Qué necesitamos saber? ¿En qué herramientas nos podemos apoyar? ¿Qué hay de nuevo con respecto al testing de los sistemas que venimos probando? ¿Qué pasa con la usabilidad, cómo la probamos? Estas y otras preguntas son las que estaremos abordando en esta charla, compartiendo nuestras experiencias e investigación al respecto.
Los Pecados Capitales en la Automatización de Pruebas de Software.Software Guru
La automatización de pruebas de software ha ido en aumento en el número de testers y empresas que ven una inversión en éste tipo de pruebas, solo que al momento de querer implementarlas cometen errores por falta de conocimiento del tema.
En la sesión presentaremos los errores más comunes que se pueden llegar a cometer y se dará una propuesta de como implementar la automatización de una manera más adecuada.
Siguiendo con los apuntes de Ingeniería de Software para la Ingeniería en Computación, de la Universidad Tecnologica de la Mixteca en Huajuapan de León, Oaxaca México.
Preview de los slides para el curso "Automate Testing"
Los slides completos del curso "Automate Testing" para .NET se encuentran en
http://www.slideshare.net/snahider/automate-testing-net
Las pruebas de software (software testing) se basan en la investigación empírica y técnica que permite proporcionar información objetiva e independiente sobre la calidad de la aplicación a la parte interesada o stakeholder. Forma parte crítica del proceso de control de calidad. Es por ello que no se puede subestimar las pruebas de software, si se desea garantizar un producto de calidad a los usuarios.
¿Cómo convertirse en un Tester de verdad?Software Guru
¿Cómo convertirse en un Tester de verdad?
¿Tester de verdad? En México, existen organizaciones que siguen sin ver la importancia de incluir el testing en el desarrollo de software aún con las pérdidas millonarias que esto ocasiona a nivel global. No obstante en esa pequeña parte del subconjunto de organizaciones que SI agregan al testing en su metodología, hay algunas que lo agregan con el objetivo de: “verificar que todo esté bien“ . . .pero esos. . . esos no son testers.
¿Cómo convertirse en un tester de verdad?
La presentación pretende cubrir algunos puntos relacionados a:
- El objetivo del testing.
- El estatus del testing en México y a nivel global.
- La curiosidad, creatividad y pensamiento lateral como herramientas fundamentales del tester.
- La importancia de la adaptación al contexto.
- Testing basado en riesgo.
- Testing vs Checking.
- El rol del tester.
Con Selenium 2.0 y Webdriver la ejecución de TDD y BDD se ve beneficiado por las fortalezas de ambos proyectos.
Introduciremos el API Java basado en PageObjects y veremos ejemplos de creación de pruebas cross-browser para un interfaz de aplicación web con Ajax
Stephen Doherty, Symantec - iBanking is a relative newcomer to the mobile malware scene whose use was first identified in August of 2013. The Trojan targets Android devices and can be remotely controlled over SMS and HTTP. iBanking began life as a simple SMS stealer and call redirector, but has undergone significant development since then. iBanking is available for purchase on a private underground forum for between $4k - $5k, with the next release expected to include a 0-day exploit for the Android operating system. This presentation will discuss iBanking - it's capabilities and the reasons for targeting mobile devices.
Si usted está buscando para desarrollar sus habilidades en Automatización de Pruebas de software, nuestros talleres metodológicos son para usted. Nuestros talleres abarcan una amplia gama de temas, incluyendo "Metodología de ensayo", "Procesos de prueba", y "caso de prueba de diseño".
La Importancia de las Certificaciones en TISoftware Guru
En esta sesión daremos a conocer los beneficios que tienen las Certificaciones en TI para la gente del medio, y los apoyos que MexicoFIRST otorga a los participantes en las Certificaciones.
Dirigido a: Gente de la Industria en TI e interesados en Certificaciones de Clase Mundial con apoyo de MexicoFIRST
This document is w3schools HTML document
Share it, download it & give me comment
Thanks.
In this document you are not read properly so first download it then read it
best of luck
Thanks
Generación de pruebas de performance a partir de pruebas funcionales para sis...Abstracta
Las pruebas de rendimiento consisten en simular carga en el sistema bajo pruebas para analizar el desempeño de la infraestructura durante la ejecución de la prueba, pudiendo encontrar cuellos de botella y oportunidades de mejora. Para la simulación se utilizan herramientas específicas, en las que se debe automatizar las acciones que generarán esa carga, esto es: las interacciones entre el usuario y el servidor. Para poder simular muchos usuarios con poca infraestructura de pruebas, se automatizan las interacciones a nivel de protocolo (en scripts), lo cual hace que la automatización sea más compleja (en cuanto al trabajo necesario para su preparación) que la automatización de pruebas funcionales, que se realiza a nivel de interfaz gráfica. Generalmente la tarea de automatización consume entre el 30% y el 50% del esfuerzo de un proyecto de pruebas de rendimiento. En este artículo presentamos la herramienta desarrollada para seguir un nuevo enfoque para generar scripts para pruebas de rendimiento a partir de scripts de pruebas funcionales. La herramienta implementada ya ha sido puesta en funcionamiento en proyectos reales, de los cuales se muestran los principales resultados que reflejan mayor flexibilidad y menor costo de automatización.
¿Cómo poner software de calidad en manos del usuario de forma rápida?Micael Gallego
Ciclo de vida del software, repositorios de código, análisis estático de código, pruebas software, integración continua, entrega continua, despliegue continuo, DevOps.
Puro Jmeter, Pura Vida! - Base de Datos y Webservices desde JmeterTestingCR
Puro JMeter, Pura Vida! Base de Datos y Webservices desde JMeter.
JMeter es una de las herramientas más versátiles que existe en el mercado para pruebas de performance. Con esta herramienta podemos estar enfoncado nuestras pruebas en diferentes protocolos, como http, https, FTP, SMTP, JDBC, Webservices. En este Webinar estaremos hablando sobre cómo crear y configurar un plan de prueba enfocado en una Base de Datos y un WebServices, te mostraremos un ejemplo básico, pero con aplicaciones y datos reales. Para aquellos que se inician en el área, primeramente haremos una pequeña introducción sobre Performance Testing y Jmeter. No tendrás motivo para dejar de asistir. ¡Puro JMeter, Pura Vida!
Mini-Bio:
Delvis Echeverría es Ingeniero Informático y Máster en Calidad de Software por la Universidad de las Ciencias Informáticas (UCI) en La Habana Cuba. Software Tester certificado por el ISTQB. Ha trabajado en el área de QA y Testing por más de 10 años en diferentes empresas e industrias en Cuba, Uruguay, Argentina y Estados Unidos. Ha dictado cursos, workshops y webinars sobre testing y en especial performance testing en varias instituciones y comunidades como Argentesting, TestingBolivia, QA Dominicana, Orlando CodeCamp, SouthFlorida CodeCamp, Southwest Florida Coders, Sarasota Software Engineering Group. Actualmente trabaja en el equipo de QA en la empresa FieldEdge como QA Engineer y como Performance Test Consultant en SQAadvisory, ambos roles en Florida, EE. UU. Delvis fue finalista (5to) en el Testing Hero Award 2018 de Tricentis, en la categoría Performance Tester del año 2018
Pruebas de Manto Cuantos tipos de pruebas hay ? Que es una estrategia ? Que e...defijel142
Cuantos tipos de pruebas hay ?
Que es una estrategia ?
Que es verificación?
Que es validación?
Es lo mismo estrategia o guía o check list o .....?
Es lo mismo verificacion y validación?
El proceso de aseguramiento de calidad está concebido como el conjunto de actividades y esfuerzos asociados para planear, organizar, dirigir y controlar la calidad del producto de software a lo largo de todo el ciclo de vida con el objetivo de satisfacer las necesidades y requerimientos del Usuario (cliente).
Lecciones aprendidas desarrollando una plataforma de Mobile Monkey TestingAbstracta
Las técnicas de monkey testing generalmente implican la ejecución de estímulos aleatorios sobre un sistema bajo pruebas con el único propósito de buscar situaciones de crash. Usar este tipo de técnicas es bastante barato, y además es posible conseguir información de valor sobre aspectos de calidad en forma temprana.
Típicamente, las herramientas existentes que usan estas técnicas son capaces de proveer información relacionada a robustez, mostrando la secuencia de pasoso ejecutada y los datos de entrada, y tal vez como información adicional el log del sistema. Es bastante complicado para el desarrollador o el tester el encontrar la causa raíz, o reducir la cantidad de pasos necesarios para reproducir las situaciones de error detectadas.
Implementar este tipo de herramientas no es trivial, más si consideramos que las aplicaciones móviles y el testing de las mismas es algo que tiene muy pocos años de desarrollo.
Aquí compartimos nuestra experiencia de implementar una plataforma opensource para pruebas de aplicaciones móviles usando monkey testing, buscando facilitar el uso y maximizar el beneficio de la información a obtener. Esto incluye desde la automatización de la exploración de un producto, la identificación automática de errores y hasta la obtención de métricas útiles para un desarrollador, y que le sirvan para detectar oportunidades de mejora y reducir así el riesgo de la liberación al mercado.
Hemos enfrentado diferentes problemas y desafíos, y así identificamos una serie de beneficios y desventajas de usar estas técnicas para este tipo de plataforma en particular que queremos compartir con la audiencia.
Build and test all, lo nuevo de GXtest para DesarrolladoresAbstracta
Presentamos la nueva versión de GXtest, que ayudará al desarrollador en las pruebas que realiza a diario, para optimizar su tiempo y la calidad de sus implementaciones, de forma fácil, gratuita y sin salir de GeneXus. Además, mostraremos algunas nuevas herramientas para seguir potenciando a los testers, cómo realizar pruebas funcionales sobre aplicaciones para Smart Devices, y cómo generar pruebas de performance.
Durante el proceso de desarrollo, continuamente estamos probando lo que implementamos, una y otra vez. Aunque sabemos cuáles son los flujos y juegos de datos más importantes para probar, el repetirlo en forma manual es sumamente tedioso y muchas veces imposible de hacer a conciencia debido a limitaciones de tiempo y otros recursos.
¿No sería bueno...
- que las pruebas se generasen automáticamente a través de un “botón derecho -> Test”?
- que las pruebas se ejecutasen automáticamente mientras pensamos lo próximo que debemos implementar?
- que pudiésemos guardar esas pruebas en nuestra KB, editarlas y mejorarlas, y no tener que repensar todo cada vez?
- que pudiésemos hacer todo esto desde GeneXus y sin instalar otros programas?
¿Por qué automatizar? y ¿por qué con GXtest?Abstracta
Sumemos controles de calidad a nuestros sistemas, con menos riesgos y costos, automatizando con GXtest, sin necesidad de contratar habilidades especiales para el equipo.
El objetivo de esta conferencia es exponer y demostrar con claridad las ventajas de automatizar con GXtest, derribando algunas afirmaciones típicas asociadas a la automatización:
“La automatización es costosa”
“Pierdo mucho tiempo”
“Necesito habilidades en programación”
“Es muy alta la curva de aprendizaje”
Además, podremos visualizar cuándo es conveniente y por qué automatizar pruebas funcionales de aplicaciones GeneXus con GXtest, sin exigir conocimientos de programación a los testers y sin largas capacitaciones; obteniendo beneficios adicionales en el proceso, como ser la generación de documentación de los casos de prueba o los scripts para pruebas de performance; tareas que insumen mucho tiempo al realizarlas manualmente.
Esta charla fue expuesta por Gonzalo Brun y Matías Reina en el marco del Encuentro Internacional de GeneXus 2014, #GX24
Herramientas de testing para aplicaciones GeneXusAbstracta
En el mundo GeneXus se sabe bien que una herramienta puede mejorar la productividad en el desarrollo. Sucede lo mismo con el testing de aplicaciones, pero seguramente todos piensan en pruebas automatizadas cuando hablamos de herramientas de testing, pero en realidad hay mucho más!
En esta charla les queremos contar de varias herramientas que nos han sido de utilidad para diversas tareas de gestión, documentación, generación de datos, registro de ideas de testing, ejecución de pruebas, entre otras.
Charla expuesta por Andrés Curcio y Matías Reina de Abstracta, en el marco del Encuentro Internacional de GeneXus 2014, #GX24
Mobile testing, ¿cómo enfrentar los nuevos desafíos?Abstracta
El testing de aplicaciones mobile es uno de los grandes desafíos que se presenta hoy en día por la diversidad de dispositivos y configuraciones existentes. Asegurar que la aplicación funcione en todos los dispositivos, que sea rápida cuando la utilizan muchas personas y que sea segura, son las inquietudes e incertidumbres que nos atacan.
¿Qué necesitamos saber? ¿En qué herramientas nos podemos apoyar? ¿Qué hay de nuevo con respecto al testing de los sistemas que venimos probando? ¿Qué pasa con la usabilidad, cómo la probamos? Estas y otras preguntas son las que estaremos abordando en esta charla, compartiendo nuestras experiencias e investigación al respecto.
Esta charla fue expuesta por Federico Toledo de Abstracta (www.abstracta.com.uy) y Guillermo Skrilec de GeneXus Consulting (www.genexusconsulting.com) en el marco del Encuentro Internacional GeneXus 2014 #GX24
Mantenimiento y mejora continua de la performance de las aplicacionesAbstracta
¿Cómo se puede garantizar que la performance de los sistemas no empeore con el transcurso del tiempo? Si un sistema hoy responde rápidamente, ¿eso garantiza que seguirá siendo así en el futuro?
De la misma forma que los sistemas, sus funcionalidades, el hardware, drivers, y sistemas operativos que les dan soporte van cambiando, también lo hace la carga sobre el sistema. La carga, entendida como la cantidad de usuarios que accede al sistema, la forma en que los usuarios ejecutan las funcionalidades, y el volumen de datos que debe ser procesado por las solicitudes del negocio son todos ejemplos de elementos que van cambiando durante la vida de una aplicación informática.
A medida que el contexto va cambiando, el sistema debe adaptarse para mantener la calidad de la performance en las respuestas a sus usuarios.
Luego que un sistema es puesto en producción comienza la etapa de mantenimiento. Para que el mantenimiento sea menor, se pueden realizar pruebas funcionales y no funcionales, con el objetivo de anticiparse a situaciones que ocurrirán en producción. La etapa de mantenimiento se caracteriza por ser tan larga cómo la vida del sistema. En esta etapa es donde ocurren todas esas situaciones inesperadas y todos los cambios en el ambiente a los que debemos adaptarnos.
Es importante entonces mantener una permanente monitorización sobre los componentes del sistema con el objetivo de detectar problemas rápidamente y adaptar lo que sea necesario para solucionarlos.
Monitorización y revisión de los tiempos de respuesta en los access logs de los servidores web y servidores de aplicaciones. Uso de los recursos (CPU, memoria, acceso a disco). Crecimiento de las tablas en la base de datos. Estos son algunos pocos ejemplos de indicadores que pueden ser monitorizados para conocer el sistema e identificar problemas.
En esta charla veremos metodología, buenas prácticas, herramientas útiles y ejemplos para mantener y mejorar la performance durante la vida de los sistemas informáticos.
Esta charla fue expuesta por Simon de Uvarow en el marco del Encuentro Internacional GeneXus 2014, #GX24
Los superpoderes de la interfaz. Cómo el diseño convierte al usuario en Super...Abstracta
Un gran poder conlleva una gran responsabilidad. La interfaz es la cara visible, el punto de acceso, la presentación y la imagen no solo de la aplicación, sino de la empresa que la hizo. Eso es un gran poder, y a su vez tiene una gran responsabilidad.
A su vez, le estamos dando al usuario ese poder, y éste puede ser feliz o puede frustrarse y pasar al lado oscuro.
Está de moda hablar de usabilidad, de que hay que hacer sitios y sistemas y aplicaciones usables, pero ¿cómo lo hacemos?
En esta charla veremos de forma general qué es el diseño, viéndolo como el dominio de la interfaz, para luego ver paradigmas del diseño, aplicado a UI de sistemas. Todo esto lo veremos aplicado a un sistema real para poder ver cómo aplicamos cada uno de los paradigmas que comentaremos, y así a través de ese concepto mostrar buenas y malas prácticas en el diseño de interfaz, a través de ejemplos conocidos, haciendo la charla más dinámica y simpática, llevándola al producto final, contando con usuarios felices y con superpoderes.
Esta charla fue expuesta en marco del Encuentro Internacional GeneXus en 2014, #GX24
Oradores
Federico Toledo (www.abstracta.com.uy)
Sebastián Martínez (www.sintropia.com.uy)
El punto principal transmitido en la charla fue: Al hacer aplicaciones el foco tiene que estar en el usuario, por más que haya otros problemas a resolver. Al usuario no le importa que haya un servidor conectado con no sé qué, que hace no sé qué algoritmo. El usuario está interesado por la tarea que debe hacer y la interaccion con la herramienta realizarlo debe ser lo más cómoda posible.
A modo de validación de la idea, presentamos Monkop (monkop.com), a la cual le estamos poniendo foco en el diseño desde sus inicios. Monkop es una herramienta/servicio que permite mejorar la calidad de las aplicaciones móviles a cero esfuerzo. Se sube un APK (aplicación móvil para instalar) a la página, y con técnicas de monkey testing logra explorarla y capturar métricas de performance, seguridad, robustez, verifica que se sigan las buenas prácticas, etc. Así genera un reporte que envía al usuario interesado, con oportunidades de mejora detectadas.
VLCtesting 2013 - Comprobando y refutando las promesas del testing automatiza...Abstracta
http://www.vlctesting.es/
Es importante que los usuarios confíen en el software que desarrollamos, y no hay mejor camino que probándolo. Para probar software siempre se habla de que el testing automatizado es un camino para acelerar, ser más eficiente, reducir costos, reducir riesgos, aumentar productividad, aumentar la motivación del equipo, etc. Pero ¿todo eso es realmente cierto? En nuestra experiencia podemos decir que no siempre es completamente cierto. Si no enfocamos bien nuestros esfuerzos no lograremos cumplir con esas promesas. Entonces, ¿cómo hacemos testing automatizado en forma efectiva y eficiente? ¿Cómo hacemos que valga la pena? ¿Cómo lo hacemos para obtener el máximo beneficio? ¿No siempre es beneficioso automatizar pruebas? ¿Cómo decido cuándo sí y cuándo no?
Testear efectiva y eficientemente es un gran desafío, que siempre nos lleva a querer ver cómo mejorar la productividad en la búsqueda de la calidad. En esta charla veremos algunas buenas prácticas, lecciones aprendidas, consejos y observaciones que hemos tomado nota en nuestra experiencia dando servicios de pruebas, viendo así cómo enfocar nuestros esfuerzos para tener éxito en nuestras pruebas, haciendo reales, o lo más reales posible, esos beneficios que siempre nos prometen del testing automatizado. También compartiremos los problemas más comunes con los que nos enfrentamos a menudo, y las alternativas que hemos encontrado para solventarlos. Compartiremos la experiencia de proyectos en distintos dominios de aplicación (sector financiero, logística, venta y distribución, etc.), contextos y plataformas, con diversos clientes. Intentaremos mostrar cuándo creemos que sí es factible y beneficioso automatizar, y cuándo rotundamente no.
GX23 - ¿Por qué correr cuando puedes testear?Abstracta
¿Su organización está dispuesta a pagar el costo de una aplicación que no funciona? Correr ese riesgo ya no es una opción. El testing debe ser considerado en todos los proyectos de desarrollo desde la concepción de los mismos.
GX23 - GXtest 2.0: Automatización de pruebas para la nueva generación de apl...Abstracta
Hoy en día una aplicación de calidad debe ser correcta funcionalmente, performante, y segura. Eso es lo que espera un usuario, y nada menos que eso. Veremos en esta conferencia la versión 2.0 de GXtest, con la que automatizaremos pruebas sobre aplicaciones web y móviles, que cubran los aspectos funcionales, de performance, y de seguridad. Mostraremos cómo GXtest aumenta sensiblemente la productividad del equipo, lo cual conduce a una reducción de los costos, incrementando además su calidad, y controlando los riesgos de las puestas en producción.
Los desafíos de calidad de software que nos trae la IA y los LLMsFederico Toledo
En esta charla, nos sumergiremos en los desafíos emergentes que la inteligencia artificial (IA) y los Large Language Models (LLMs) traen al mundo de la calidad del software y el testing. Exploraremos cómo la integración, uso o diseño de modelos de IA plantean nuevos retos, incluyendo la calidad de datos y detección de sesgos, sumando la complejidad de probar algo no determinístico. Revisaremos algunas propuestas que se están llevando adelante para ajustar nuestras tareas de testing al desarrollo de este tipo de sistemas, incluyendo enfoques de pruebas automatizadas y observabilidad.
Si bien los hospitales conjuntan a profesionales de salud que atienden a la población, existe un equipo de organización, coordinación y administración que permite que los cuidados clínicos se otorguen de manera constante y sin obstáculos.
Mario García Baltazar, director del área de Tecnología (TI) del Hospital Victoria La Salle, relató la manera en la que el departamento que él lidera, apoyado en Cirrus y Estela, brinda servicio a los clientes internos de la institución e impulsa una experiencia positiva en el paciente.
Conoce el Hospital Victoria La Salle
Ubicado en Ciudad Victoria, Tamaulipas, México
Inició operaciones en el 2016
Forma parte del Consorcio Mexicanos de Hospitales
Hospital de segundo nivel
21 habitaciones para estancia
31 camas censables
13 camillas
2 quirófanos
+174 integrantes en su plantilla
+120 equipos médicos de alta tecnología
+900 pacientes atendidos
Servicios de +20 especialidades
Módulos utilizados de Cirrus
HIS
EHR
ERP
Estela - Business Intelligence
Escaneo y eliminación de malware en el equiponicromante2000
El malware tiene muchas caras, y es que los programas maliciosos se reproducen en los ordenadores de diferentes formas. Ya se trate de virus, de programas espía o de troyanos, la presencia de software malicioso en los sistemas informáticos siempre debería evitarse. Aquí te muestro como trabaja un anti malware a la hora de analizar tu equipo
6. Caso de prueba
• Un caso de prueba consta de:
– conjunto de valores de entrada
– precondiciones de ejecución
– resultados esperados
– poscondiciones de ejecución,
– desarrollados con un objetivo particular, por
ejemplo:
• ejercitar un camino de un programa particular
• verificar que se cumple un requisito especifico
7. Discusión de “salados”
• “Test automation is simply an automatic way
of doing what testers were doing before”
– Steve Rowe (Tester at Microsoft)
• “Test automation means extending the reach
of testers”
– James Batch (Tester Consultant at Satisfice)
8. Testing de Regresión
• Verificar que el Software no tenga
regresiones
• ¿Solo revisar bugs?
• Hay quienes dicen que es un chequeo
– Michael Bolton http://www.developsense.com/2009/08/testing-
vs-checking.html
9. Automatización
• Adquirir tecnología para automatizar procesos
manuales
• Mejora:
– calidad
– performance en la producción
– rendimiento de los recursos humanos
10. ¿Qué es automatizar pruebas?
Lograr que los casos de prueba sean corridos
por una máquina
11. ¿Para qué automatizar?
• Aumentar la calidad del producto
• Disminuir el Time to Market
• Detección temprana de errores
• Reducir el costo total de la aplicación
• Motivación del equipo
• Testear en diferentes plataformas en forma
desatendida
12. ¿Cómo automatizar?
• Se debe utilizar una herramienta
• Algunos conceptos importantes
–Record & Playback
–Data-Driven Testing
–Model-Based Testing
istockphoto ®
15. Como funciona Selenium
Functional
Test Scripts
Selenium captures
User Interactions
Tester / User
Executes and reports
SUT: System Under Test
Manual Test Case
Execution
This is record and playback!
19. ¿Qué es ?
• Herramienta de testing específica para
aplicaciones Web GeneXus
Model-Based Testing
Record &
Playback
Data-Driven
Testing
20. ¿Por qué ?
• Adaptar rápidamente los casos de prueba a
los cambios de la aplicación
• Crear casos de prueba de manera sencilla
–Enfoque funcional
–Data-Driven Testing
• Integración con la aplicación GeneXus
21. ¿Cómo se logra?
GXtest asocia Artefactos de Prueba a la KB
Casos de Prueba Ejecutables
Capa de Adaptación
Casos de Prueba
27. Tesis: Enfoque MDA para Generar
Pruebas para Sistemas de Información
• Universidad Castilla-La Mancha
• Beca: Agencia Nacional de Investigación e
Innovación
• Tutores
– Macario Polo (España)
– Beatriz Pérez (Uruguay)
28. Conclusiones
• Model-driven approach
• Basado en estándares
– UML
• UML Data Modeling Profile
• UML Testing Profile
– Transformaciones Model-to-Model
– Transformaciones Model-to-Text
• Pruebas funcionales automatizadas y pruebas
de performance
29. Conclusiones
• Especial atención en cubrir las estructuras de
datos
– A partir del modelo de datos se generan casos de
prueba para probar el CRUD de las entidades
• CRUD = Create, Read, Update, Delete
• 80% de las funcionalidades de los sistemas de
información son operaciones de este tipo
30.
31. Mayor aporte: vínculo con industria
• Las técnicas investigadas fueron volcadas a
GXtest
• GXtest Generator
– A partir de la KB de GeneXus genera un conjunto
de casos de prueba en GXtest para el CRUD de las
entidades
39. Objetivos
SIMPLE – Envía tu app, obtén un informe.
EXPERTO - Analizar e identificar cuales tareas de
Tuning son posibles a realizar sobre la aplicación.
EDUCATIVO - Brindar información técnica necesaria
para realizar la tarea de Tuning.
ESCENCIAL – Ser el complemento (amigo) ideal de
toda Software Factory
49. Pruebas basadas en conocimiento
(modelos)
• Sin información base:
Modelo se crea en base a
exploración e ingeniería inversa,
pantallas, comportamiento
(acciones y transiciones), tráfico de
red y texto ayudan a la creación del
modelo de la aplicación.
• Con información base
Datos, código fuente, logs del
server y casos de prueba de otros
frameworks ayudan a
complementar el modelo y la
comprensión del sistema.
54. Performance
• Computer performance is characterized by the
amount of useful work accomplished by a
computer system compared to the time and
resources used.
• Requisito “no funcional” del sistema
55. ¿Si no hay performance?
Dependemos de los sistemas para trabajar
• Se pierde productividad
• Se pierden clientes
• Se pierden oportunidades de venta
Los sistemas son controlados por personas
• Mayor costo de soporte
La imagen de la empresa es el sistema que le da a sus usuarios
• Costos indirectos
• Pérdida de imagen y confianza
56. Pruebas de performance
Cómo ayudamos:
– Simular situaciones de carga para conocer el desempeño del sistema
Para qué:
– Verificar si el sistema soporta la carga esperada
– Verificar si se cumplen acuerdos de nivel de servicio (SLA)
– Detectar errores u oportunidades de mejora, que solamente son
observables ante la concurrencia
– Detectar bottle-necks
Objetivo:
– Asegurar satisfacción de los usuarios
57. Tipos de pruebas de performance
• Pruebas de carga (load test)
• Pruebas de estrés (stress test)
• Pruebas de resistencia (endurance test)
• Pruebas de escalabilidad
• Etc.
68. Objetivo
• Apuntar siempre a mejorar la relación costo /
beneficio
• Si nos centramos sólo en mejorar la prueba,
nos costará muy cara, y los beneficios serán
menos redituables
• Incluso pueden llegar tan tarde, ¡que no nos
sirva para nada!
69. EJECUCIÓN
• LÍNEA BASE
• EJECUCIÓN DE ESCENARIOS
• REPORTE DE RESULTADOS
IMPLEMENTACIÓN
• AUTOMATIZACIÓN
• MONITORIZACIÓN
DISEÑO
•CASOS DE PRUEBA
•ESCENARIOS DE CARGA
•INFRAESTRUCTURA DE PRUEBAS
•INDICADORES DE PERFORMANCE
70. Diseño de pruebas
Definir objetivos del proyecto
Diseñar casos de prueba
Diseñar escenarios de carga
Criterios de aceptación
Determinar Infraestructura
Datos de prueba
71. Automatizar Pruebas de Performance
• Algunas opciones de herramientas opensource
– OpenSTA (opensta.org)
– JMeter (jmeter.apache.org)
• Trabajan a nivel de protocolo
74. GXtest
• Automatizar caso de prueba
– Mucho más fácil, nivel de interfaz y no de
protocolo
– Generar script de OpenSTA o JMeter
• Un proyecto de pruebas de performance se
puede hacer 10 veces más rápido
• Foco en lo importante, menos tiempo
automatizando
• Se ajustan los cambios más fácil
76. Performance Testing Methodology
• Vázquez, G., Reina, M., Toledo, F., de Uvarow, S., Greisin, E., López, H.:
Metodología de Pruebas de Performance. Presented at the JCC (2008).
Test Design Automation
Execute
AnalyzeFixBetween 30% and 50% in
automation tasks
77. Ejecución – Plan de Pruebas
• BaseLine
– Mejor tiempo posible
– Iterativo para tener datos estadísticos
• Escenario
– Incremental
– Comenzar con un 20% de la carga
– Escalar hasta llegar al 100%
Servidor WebServidor Web
Servidor WebServidor Web
80. ¡Cuidado!
• Asegurarse que los distintos componentes
tienen la hora sincronizada lo más preciso
posible.
• De otro modo se puede dificultar el análisis.
• (o llegar a conclusiones erróneas)
81. Patrones
Nunca supera el 25% de CPU
Tiempos de respuesta muy malos
¿Por qué no utiliza más recursos si hay?
¿Y si les digo que el CPU tiene 4 núcleos?
82. Patrones
• Luego de media hora de ejecución
– CPU al 100%
• ¿Siempre es un problema de CPU?
• La JVM si se queda con poca memoria llega un
momento en que el proceso de Garbage
Collection consume mucho CPU
83. Causas
• Los problemas de performance pueden tener
distintas causas
– La prueba
– Lógica
– Infraestructura
• Solo analizando los resultados y el
funcionamiento del sistema (y de la prueba)
se puede ver dónde esta la causa
84. ¿Qué estamos probando?
Base de datos
JVM
Aplicación
Sistema operativo
Hardware
Servidor de aplicaciones
HTTP
Aplicación
Aplicación
85. Errores comunes
• En la base de datos
– Bloqueos de tablas
– Falta de índices
– SQLs ineficientes
– Problemas de tamaño de tablas
• Falta de depuración / limpieza de datos
86. Errores comunes
• En el Web Server
– Configuración de máquina virtual (JVM / .Net
Framework)
– Pool de conexiones
• En la lógica de la aplicación
– Algoritmos
– Zonas de mutua exclusión
– Pérdida de memoria (Memory Leaks)
87. Errores comunes
• Problemas de hardware
– Dimensionamiento (Sizing)
– Conexiones mal armadas
– Un elemento con problemas
• Una vez nos dieron un hub en lugar de un switch
88. Bitácora
• Llevar una bitácora completa de los cambios
sobre:
– Aplicación
• Software de base
• Infraestructura
– Prueba
• Evaluar si se implementan los cambios
derivados de la propia prueba durante el
proyecto
89. Baselines
15/02/08
ESCENARIO
20%
16/02/08
.- se aumenta a 1GB el Heap
del NSBT.
.- actualización GxClassR.
.- eliminación de la
transacción 8 (Journal de
Movimientos)
.- se cambia el hub de las
generadoras por un Switch de 100Mb.
.- cambios en el tamaño del pool de
Conexiones de GeneXus.
.- se habilita el caché de GeneXus.
.- cambio de Clases en Bantotal para
utilizar “select top”.
.- se quita el sistema de firmas del
ambiente de pruebas.
ESCENARIO
50%
20/02/08
ESCENARIO
75%
21/02/08
.- cacheo de tabla de perfiles.
.- debug desabilitado.
.- Programa GETALERT modificado
para no Update permanente.
.- en AS400 se asignaron 2GB a una
agrupación de memoria que estaba
en 1.2GB.
.- se aumentaron las CPW
de 8.000 a 10.000 en la partición.
ESCENARIO
100%
21/02/08
.- Se corrigen problemas
detectados en la
transacción de Factoring.
.- se aumentaron las CPW de
10.000 a 12.000 en la partición.
.- se actualizaron las clases
sincronizándolas con las de producción
ESCENARIO
150%
04/03/08
90. Skills del performance tester
• Neceisdad de ser
– “mid-level everything”
– Multi-disciplinario.
• Conocimiento de distintas:
– Tecnologías
– Arquitecturas / protocolos
– Herramientas
• Generación de carga
• Monitorización
91. Resumen
Generarlacarga
Recolectar y Analizar
Datos
Realizar
Correcciones
INTERNET
Clientes Routers Switches
Web
Servers
Firewall
Applications
Servers
Bases de
Datos
Servidor WebServidor Web
Servidor Web
ToolTool
Grabar
1
Seabre
1.1
Se
abre
1.2
Acciones
2
Terminar de grabar
3
3.1
Tenemos el script
GatewayBrowser
Http - Request
Http - Response
Http - Request
Http - Response
Http - RequestHttp - Response