Los métodos de Usabilidad son diversos y según el tipo es la forma de usarlos en tus proyectos. Desde la concepción de software hasta su evaluación presentamos una guía básica de algunos de estos métodos.
5. 02Técnicas de evaluación | Métodos de Usabilidad
Brecha entre el
análisis y la
concepción.
What the user really needed, recuperado de
https://i.pinimg.com/originals/b3/26/95/b326950dcb3
7a56fea17a95c70ad3825.jpg
7. 04Técnicas de evaluación | Métodos de Usabilidad
Ciclo de vida de la ingeniería de usabilidad
ISO TR 18529, recuperado de Mayhew, 2004
8. Ingeniería de usabilidad
05Técnicas de evaluación | Métodos de Usabilidad
Los problemas son detectados
demasiado tarde si es que son
detectados (quejas, catástrofes,
desinterés)
El espacio de diseño es
particularmente importante (numerosas
(numerosas variables de diseño)
Conocimiento heterogéneo
cualitativo difícil de dominar el
conocimiento necesario de la
usabilidad
9. Ingeniería de usabilidad
06Técnicas de evaluación | Métodos de Usabilidad
2 grandes familias de
métodos
concepción y evaluación
3 grandes principios
Foco precoz en el usuario
Medida empírica de los
productos desarrollados a lo
largo del ciclo de desarrollo
Concepción altamente iterativa
(al menos para la interfaz de
usuario)
10. Familias: Métodos de Concepción
Estudio de campo Análisis de los« datos de uso »
Personas Análisis de la tarea
Ordenamiento por prioridad Prototipado
07Técnicas de evaluación | Métodos de Usabilidad
11. Familias: Métodos de Evaluación
Pruebas de usuario Revisión de experto
Revisión heurística Entrevista
Estudio de usuarios Medidas de uso
08Técnicas de evaluación | Métodos de Usabilidad
13. Ciclo de Vida de
la Ingeniería de
la Usabilidad
10Técnicas de evaluación | Métodos de Usabilidad
Evaluación
Pruebas de Usuario
•Revisión formal
•Revisión heurística
•Camino a evaluar la
parte Cognitiva
•Métricas de utilización
•Cuestionarios de
satisfacción
Requerimientos
y análisis:
Análisis de datos
•Estudio de campo
•Grupo Foco
•Análisis de Tareas
•Encuesta de Usuarios
•Personas
•Organizar prioridad
•Modelos predictivos
Diseño:
Diseño
participativo
•Prototipado
Desarrollo &
Pruebas
Programación
Técnica
Operación
Redacción para
la Web
•Ayuda y
documentación
•Promoción
14. Métodos de ConcepciónEstudio de campo, Análisis de los “datos de uso”, Personas, Análisis de la tarea, Ordenamiento por prioridad,
Prototipado
11Técnicas de evaluación | Métodos de Usabilidad
15. Factores a tomar en cuenta con respecto al usuario
Físico y fisiológicos: tamaño, peso, destreza,
agudeza visual, agudeza auditiva, fatiga,…
Experiencia: experiencia de la tarea, en la
manipulación de las tecnologías,…
Psicológicos: velocidad de aprendizaje, capacidad
de memorización, curiosidad, motivación, fatiga,
estado emocional
Socio-cultural: nivel de estudios, sexo, origen
social, país
12Técnicas de evaluación | Métodos de Usabilidad
16. Factores a tomar en cuenta con respecto al Ambiente de
Trabajo
Estructurada: bien definida
Frecuencia:Tarea regular,
ocasional, única?
Presión de tiempo
Qué conocimientos son
necesarios para ejecutarla
Nivel de criticidad (seguridad)
Equipamiento necesario (ex:
lentes de protección) periféricos
de entrada/salida inhabituales
Tarea colaborativa Tarea secuencial o paralela
13Técnicas de evaluación | Métodos de Usabilidad
17. Factores a tomar en cuenta con respecto al Ambiente de
Trabajo
Listar otros ambientes de trabajo (ejemplos móvil, bajo estrés,
condiciones de luz deficiente, sin estrés,…)
14Técnicas de evaluación | Métodos de Usabilidad
18. Factores a tomar en cuenta con respecto al Contexto:
LA ORGANIZACIÓN
¿Quién hace qué? ¿Cómo se
controlan los resultados?
Dependencias entre tareas,
workflow (dependencia de
recursos, recursos compartidos)
Existencia de soporte técnico
Análisis socio-politico de la
organización
Restricciones económicas
15Técnicas de evaluación | Métodos de Usabilidad
19. Factores a tomar en cuenta con respecto al Contexto:
LA TECTONOLOGÍA
Hardware disponible y/o
necesario
Software disponible y/o
necesario
Network
16Técnicas de evaluación | Métodos de Usabilidad
20. Métodos de Concepción
Estudio de campo, Análisis de los “datos de uso”, Personas, Análisis de la tarea, Ordenamiento por
prioridad, Prototipado
11Técnicas de evaluación | Métodos de Usabilidad
21. Estudio de Campo
17Técnicas de evaluación | Métodos de Usabilidad
Investigación del
contexto, la
investigación
etnográfica, la
investigación del usuario
Principio : observar el
usuario potencial de la
aplicación en su contexto
real
• Comprender el contexto de
inserción de la aplicación
• Categorizar y comprender a
los usuarios
• Comprender los procesos y la
terminología
22. Estudio de Campo
18Técnicas de evaluación | Métodos de Usabilidad
Ejemplo: una
tarea
fragmentada
Posible salida:
casos de uso,
escenarios,
workflow,
persona
Ventaja:
comprensión
profunda de las
motivaciones y
del contexto de
uso.
Inconveniente:
costo elevado,
riesgo de sobre
interpretación, de
conservatismo
23. Métodos de Concepción
Estudio de campo, Análisis de los “datos de uso”, Personas, Análisis de la tarea,
Ordenamiento por prioridad, Prototipado
19Técnicas de evaluación | Métodos de Usabilidad
24. Análisis de los Datos de Uso
20Técnicas de evaluación | Métodos de Usabilidad
Análisis de los Datos de Uso
Análisis de diferentes
fuentes:
• Log files
• Error logs
• Encuestas de satisfacción
• Estudio de usabilidad
• Quejas
• Call center logs
Guía de Uso:
Durante la concepción en el análisis de requerimientos si
ya existe una versión.
En la evaluación para dar seguimiento a un sistema en
operación.
25. Encuestas para ENTENDER el uso de las cosas
21Técnicas de evaluación | Métodos de Usabilidad
¿Qué te describe mejor a ti?
CancerNet NCI
N % N %
Familia/Amigos 169 28 414 27
Paciente de Cancer 85 14 266 17
Educador/Alumno - - 155 10
Researchers/Scientist 41 7 97 6
Nurse (non-Oncology) 15 2 42 3
Oncology Nurse 14 2 34 2
Oncologist 60 10 33 2
Physician (non-Oncology) 22 4 32 2
Journalist/Media Professional - - 31 2
Librarian 29 5 30 2
Patient Advocate 8 1 26 2
Other 91 15 209 14
Not specified 81 13 157 10
615 1526
"What information are you looking for?"
Major Categories CancerNet NCI
Information on specific type of cancer 23% 25%
Treatment information 19 17
Symptoms, causes, risk factors….. 8 5
Statistics (e.g. incidence rates, survival) 3 5
Clinical Trials 11 5
Access to other resources (e.g. treatment
facilities, physicians) 3 4
Drug information 3 4
NIH Organization (e.g. mission, employment) - 3
New treatments 5 3
Ordering NCI publications 2 3
Recent findings - 2
Type of tumor (not by cancer name) 7 2
Cancer literature 5 1
Patient support 4 2
Side effects 3 2
US general service of administration
26. Métodos de Concepción
Estudio de campo, Análisis de los “datos de uso”, Personas, Análisis de la tarea, Ordenamiento por
prioridad, Prototipado
22Técnicas de evaluación | Métodos de Usabilidad
27. Análisis de Tareas para REPRESENTAR el uso de las
cosas
23Técnicas de evaluación | Métodos de Usabilidad
Objetivo: tener una visión estructurada de la forma en la que los
usuarios realizan sus objetivos
1. Descripción de tareas
2. Descripción de descomposición de tareas en subtareas
(incluyendo los procesos cognitivos)
3. Descripción de entrelazado temporal entre tareas
4. Descripción de recursos informacionales consumidos y
producidos por las tareas
5. Descripción de mecanismos de colaboración
28. Pie de foto.
Matriz de Tareas
Tareas en la Universidad Prospectiva Estudiantes Alumni Facultad
Para solicitar la admisión. X
Para encontrar un número de
contacto.
X X X X
Para inscribirse en las clases. X
Para acceder al catálogo de cursos. X X X X
Para donar dinero. X
Solicitar una transcripción. X XIdentificación de Rareas y Roles que las ejecutan
24Técnicas de evaluación | Métodos de Usabilidad
29. Análisis de la
tarea: Casos
de USO UML
Modelo de caso de Uso, Recuperado de
http://www.ksl.stanford.edu/people/pp/papers/PinheirodaSilva_IMKB_2000.p
df
25Técnicas de evaluación | Métodos de Usabilidad
30. Análisis de la
tarea: Modelos
Tarea CTT
Modelo de Tarea, elaboración propia
26Técnicas de evaluación | Métodos de Usabilidad
31. Análisis de la
tarea:
Diagramas de
Flujo
Diagrama de Flujo, recuperado de
http://www.boxesandarrows.com/view/interaction_modeling
27Técnicas de evaluación | Métodos de Usabilidad
32. Análisis de la
tarea:
Diagrama de
Actividades
UMLDiagrama de Actividades, recuperado de :
http://www.ksl.stanford.edu/people/pp/papers/PinheirodaSilva_IMKB_2000.p
df
28Técnicas de evaluación | Métodos de Usabilidad
33. Análisis de la
tarea:
Diagrama de
Secuencia
UMLDiagrama de Secuencia, recuperado de :
http://www.ksl.stanford.edu/people/pp/papers/PinheirodaSilva_IMKB_2000.p
df
29Técnicas de evaluación | Métodos de Usabilidad
34. Métodos de Concepción
Estudio de campo, Análisis de los “datos de uso”, Personas, Análisis de la tarea, Ordenamiento por prioridad,
Prototipado
30Técnicas de evaluación | Métodos de Usabilidad
35. 31Técnicas de evaluación | Métodos de Usabilidad
PERSONAS¿Cómo lograr comunicar mejor los requerimientos
de diseño a los equipos pertinentes?
Propuestas por Alan Cooper (padre de Visual
Basic)
Definen de quién es la historia detrás de la
Tarea.
Este personaje tiene: actitudes, motivaciones,
metas, problemas, necesidades.
Son ficticias
El usuario promedio no existe
Template de PERSONA, Recuperado de www.filamentgroup.com
36. Métodos de Concepción
Estudio de campo, Análisis de los “datos de uso”, Personas, Análisis de la tarea, Ordenamiento por
prioridad, Prototipado
32Técnicas de evaluación | Métodos de Usabilidad
37. Arquitectura de la
Información:
Orden y Prioridad
Arquitectura de la Información, recuperado de : :
http://www.isrc.umbc.edu/HCIHandbook/
33Técnicas de evaluación | Métodos de Usabilidad
38. Métodos de ConcepciónEstudio de campo, Análisis de los “datos de uso”, Personas, Análisis de la tarea, Ordenamiento por prioridad,
Prototipado
34Técnicas de evaluación | Métodos de Usabilidad
39. Papel Wireframe Storyboard Baja Fidelidad
35Técnicas de evaluación | Métodos de Usabilidad
Prototipado
Diferentes Niveles de Prototipado
40. Colaboración Lluvia de Ideas Prototipado Baja Fidelidad
36Técnicas de evaluación | Métodos de Usabilidad
Prototipado con Diseño Participativo
Ejemplo del Proceso de Diseño Participativo, retomado de www.sap.com
41. SketchiXML Denim
37Técnicas de evaluación | Métodos de Usabilidad
Prototipado : En papel digital
Prototipado Digital, recuperado de Coyete 2006
42. Ventajas del Prototipado
Atención en los problemas importantes :
estructura, navegación, arquitectura de
interacción, cobertura funcional.
Mayor implicación con los usuarios con los
prototipos en papel
38Técnicas de evaluación | Métodos de Usabilidad
43. Métodos de EvaluaciónPruebas de usuario, revisión de experto, revisión heurística, entrevista, estudio de usuarios, medidas de uso
39Técnicas de evaluación | Métodos de Usabilidad
44. Métodos de
Evaluación
40Técnicas de evaluación | Métodos de Usabilidad
Métodos analiticos
Reportes de
usuario
Reportes de
especialistas
Métodos
observacionales
Usuario
Representado Real
RepresentadaReal
Aplicación
Matriz de tipos de métodos de evaluación según los usuarios y aplicaciones usadas
45. Métodos de Evaluación
Pruebas de usuario, revisión de experto, revisión heurística, entrevista, estudio de usuarios,
medidas de uso
41Técnicas de evaluación | Métodos de Usabilidad
46. Pruebas de Usuario
42Técnicas de evaluación | Métodos de Usabilidad
Los datos recolectados dependen del instrumento usado
El método think aloud es usado
¡No se buscan resultados ni validación estadística se
buscan identificar errores o problemas!
Guía de Uso:
Desde los prototipos en papel.
Hacerlo seguido y acompañado de un
cuestionario pre y post evaluación
Realización de un escenario de tareas para un panel de usuarios reales
47. ¿Cuántos
usuarios?
43Técnicas de evaluación | Métodos de Usabilidad
Problemas detectados en función del número de participantes en una prueba,
recuperado de http://www.isrc.umbc.edu/HCIHandbook/
49. Moderadas No moderadas
45Técnicas de evaluación | Métodos de Usabilidad
Pruebas de Usuario Remotas
Pruebas de Usuario Remotas, Adarsh, M., 20015, recuperado de
https://miro.medium.com/max/580/0*nVXtbXHChd1Bs2Ni.jpg/
50. Escenario de Eyetracking Mapa térmico, resultado del
Eyetracking
46Técnicas de evaluación | Métodos de Usabilidad
Pruebas de Usuario con Reconocimiento de Mirada
51. 47Técnicas de evaluación | Métodos de Usabilidad
Todo tipo de aplicación. Tareas altamente repetitivas,
intensas en el nivel de coordinación psicomotriz, critica a
nivel de seguridad, marketing
Datos de análisis muy puros
Si multi-pantallas muy caro
Interpretación de resultados no es evidente
Guía de Uso:
Usar con Prototipos Avanzados.
Hacerlo seguido y acompañado de un
cuestionario pre y post evaluación
Pruebas de Usuario con Reconocimiento de Mirada
Realización de un escenario de tareas para un panel de usuarios reales
52. Métodos de Evaluación
Pruebas de usuario, revisión de experto, revisión heurística, entrevista, estudio
de usuarios, medidas de uso
48Técnicas de evaluación | Métodos de Usabilidad
53. 49Técnicas de evaluación | Métodos de Usabilidad
Varios expertos verifican la interfaz que sea compatible con
el conjuntos de principios de usabilidad conocidos como
heurísticas
Mas barato que un test de usabilidad, sin usuarios
Permite 'debugear' antes de probar un prototipo de alta
fidelidad con los usuarios
Guía de Uso:
En todo momento desde prototipos en papel
Hacerlo seguido y acompañado de un
cuestionario pre y post evaluación
Revisión Heurística
Heurísticas de Nielsen
54. Métodos de Evaluación
Pruebas de usuario, revisión de experto, revisión heurística, entrevista, estudio de usuarios, medidas de
uso
50Técnicas de evaluación | Métodos de Usabilidad
55. Rendimiento del servidor
• La latencia del sistema es muy grande
• El sistema falla constantemente
• Funcionalidad importante falta
• El resto…
51Técnicas de evaluación | Métodos de Usabilidad
56. Rendimiento del servidor
• Medidas:
• Tiempo para subir datos
• Tiempo de respuesta
• Modo de medición:
• Probar el software a partir de
diferentes ubicaciones, simulando
diferentes tipos de conexiones,
browsers,…
52Técnicas de evaluación | Métodos de Usabilidad
57. Rendimiento del servidor
• El tiempo de respuesta (o latencia) es
el intervalo entre:
• El momento donde el usuario
lanza una solicitud de respuesta
del sistema y el momento en que
el sistema da respuesta a dicha
solicitud de manera que el usuario
perciba dicha respuesta
• ¡El tiempo de respuesta percibido por
el usuario es != tiempo de respuesta
real !
53Técnicas de evaluación | Métodos de Usabilidad
58. Rendimiento del servidor
• Acortar la tarea global
• Dar una buena primera impresión
• Ayudar al usuario a predecir lo que va
a encontrar
• Dar una indicación del tiempo de
espera
54Técnicas de evaluación | Métodos de Usabilidad
2 seg.
óptimo
5 seg
Bueno
10 seg
Mediano
Mayor a
10 seg
Malo
59. Tiempos de descarga indicativos
• ((velocidad teórica * 8)/tamaño del
archivo) * k
k = coeficiente de
atenuación de la velocidad teórica
(en esta tabla k atenúa en
38% la velocidad teórica)
• La velocidad de referencia es a
determinar en función del público
objetivo
55Técnicas de evaluación | Métodos de Usabilidad
60. Métodos de Evaluación
Pruebas de usuario, revisión de experto, revisión heurística, entrevista, estudio de usuarios,
medidas de uso
56Técnicas de evaluación | Métodos de Usabilidad
61. Estudios de Usuario
• Tiempo de ejecución de una tarea,
porcentaje de errores, aprendizaje,
memorización, satisfacción subjetiva
• Modo de medición:
• Mixta : cuantitativa (análisis de
archivo de log de la sesión de
interacción) y cualitativa
(cuestionario)
• Herramienta /método
• Laboratorio de usabilidad,
herramienta de análisis de logs de
las sesiones de interacción.
57Técnicas de evaluación | Métodos de Usabilidad
Moderadas No moderadas
Pruebas de Usuario Remotas, Adarsh,
M., 20015, recuperado de
https://miro.medium.com/max/580/0*nVXt
bXHChd1Bs2Ni.jpg/
62. Datos provenientes de campañas de email y marketing
Inbound marketing
Número de envíos, porcentaje de
aperturas, porcentaje de clics a través,
porcentaje de rebote (porcentaje de
visitas que abandonan la página a los
pocos segundos de entrar en ella),
porcentaje de des registro
Modo de medición: Herramienta de
software
58Técnicas de evaluación | Métodos de Usabilidad
63. Estudios de Usuario: Encuestas
• Opinión de usuarios
• Cuestionario + estadística
• Encuestas en línea y fuera de
línea
• Algunos cuestionarios en línea
evaluando la usabilidad son
estandarizados. Ejemplo
WAMMI (20 preguntas)
recomendado por la ISO 9241
• Dificultad de encontrar un
incentivo para que los usuarios
respondan los cuestionarios
59Técnicas de evaluación | Métodos de Usabilidad
Encuestas
64. Métodos de Evaluación
Pruebas de usuario, revisión de experto, revisión heurística, entrevista, estudio de usuarios, medidas de
uso
60Técnicas de evaluación | Métodos de Usabilidad
65. Métricas específicas al problema
• Las métricas descritas en estas
diapositivas no son todas
pertinentes per se
• Les métricas deben ser agregadas
y adaptadas a los objetivos del
problema
• A definir en función de los
objetivos del problema
61Técnicas de evaluación | Métodos de Usabilidad
Métricas
66. Métricas específicas al problema
• La definición de objetivos medibles
se puede hacer en diferentes
momentos en el tiempo
• a priori de manera absoluta
(como el tiempo de subida, el
tiempo de respuesta)
• a priori de manera relativa (ex.
Tiempo de ejecución máximo de
10 tareas estratégicas luego de
un estudio de pruebas de
usuario, numero máximo de clic
para acceder a 10 documentos
claves)
• a posteriori de manera relativa
(ex. Porcentaje de satisfacción
subjetiva)
62Técnicas de evaluación | Métodos de Usabilidad
Métricas
67. Métricas específicas al problema: Operacionalización
• Los objetivos son claros
• Las competencias técnicas y
analíticas esta disponibles
• El ciclo de retroalimentación
(feedback) es posible:
• Captura/Limpieza
• Medición
• Análisis
• Reporte
• Interpretación
• Decisión/Planificación
• Cambio
63Técnicas de evaluación | Métodos de Usabilidad
Métricas
68. Métricas específicas al problema: Operacionalización
• Tiempo perdido por tener una aplicación de email funcionando
de forma permanente con avisos
• 1000 usuarios
• Molestos por un mensaje que 3 veces al día bloquea
sus tareas
• 200 ms para lograr que la tarea actual sea bloqueada
• 300 ms para desplazar la vista hacia el objeto
• 1200 ms para tomar la decisión de cerrar la caja de
dialogo
• 1100 ms ara desplazar el cursos hacia el objeto
(depende de la distancia)
• 100 ms para hacer clic sobre el botón de cerrar
• 1100 ms para colocar el cursos al contexto anterior
• 100 ms para reactivar la aplicación
• No toma en cuenta el tiempo requerido para volver a ser
productivo que tiene que es el momento justo antes de
la interrupción
• Total = 4,1 s
• 4,1 s * 3 * 1000 empleados * 200 días = 683 h
• 92 d/h o 34,150 EUR (si 50 EUR/h)
• Bajo esta hipótesis que el mensaje no sea de su
interés…
63Técnicas de evaluación | Métodos de Usabilidad
70. Presupuesto
65Técnicas de evaluación | Métodos de Usabilidad
Estudio NNGroup (enero 2003) 863 proyectos
Presupuesto : entre 8 – 13 % de presupuesto total sin contar
mantenimiento (proyecto > 1,5 M€)
Estimaciones de esfuerzo depende del tamaño del proyecto
Costo no aumenta de manera lineal con respecto l tamaño del
proyecto
El enfoque debe ser adaptado a las especificaciones de cada
proyecto
71. Pie de foto.
Estimación de esfuerzo
Tareas en la Universidad Prospectiva Estudiantes
Pruebas de usuario 4-7 semanas (nbre escenarios,
nbre lenguas, in-house)
30-60
Revisión heuristica 2 semanas (nivel detalle) 10-20
Arquitectura de
información + guía de
estilo
6-10 semanas 45-60
Prototipo Hi-Fi 1 día por ti par tipo de pagina 1 d por tipo pagina
Estimación de esfuerzo en función del proyecto. Schaeffer E., Intitutionalization of Usability, Addisson-Wesley, 2004
66Técnicas de evaluación | Métodos de Usabilidad
72. Requirements
1
10-100
Development Operation
Corregir un problema de usabilidad en la fase de operación cuesta de 10 a 100 veces
mas que corregirlo al momento de diseño (Marcus, 2004)
67Técnicas de evaluación | Métodos de Usabilidad
¡Invertir pronto !
73. Corregir ROI estimado sobre los gastos de usabilidad de un proyecto web
(Bias&Mayhew, 2004)
68Técnicas de evaluación | Métodos de Usabilidad
¡Invertir pronto !
74. 6869Técnicas de evaluación | Métodos de Usabilidad
• ROI es difícil a estimar (existe una serie de casos de estudio)
• productividad del usuario (user testing, usage data)
• errores de usuario (logs)
• costo de formación (datos training center)
• carga de call center (call center logs)
• valor percibido del producto, imagen de la marca (calificación del contenido, encuestas
de notoriedad, ranking motores de búsqueda, datos de uso, accesibilidad)
• satisfacción subjetiva, aceptación del producto (encuesta online, datos de uso)
• porcentaje de conversión, ventas (a interpretar)
• costos de desarrollo y de mantenimiento (datos de producción)
• El número de usuarios tiene influencia sobre la ganancia lograda. Estrategia: realizar una inversión inicial
(adquisición del saber-hacer, de las herramientas) sobre el grueso del proyecto.
75. Conclusión
Invertir en esto vale la pena
hay que hacerlo
Requerimos de saber cómo
se hace
IBM es un método pero hay
muchos más
70Técnicas de evaluación | Métodos de Usabilidad
76. Pie de foto.
Bibliografía
•Muñoz Artega, J., GONZALEZ CALLEROS, J. M., & Huitrón, A. S. (2015). La
interacción humano-computadora en México. Pearson Educación.
•Vanderdonckt, J. Usabilité (2010). Notas del curso de Interacción Humano
Computadora, reproducidas con autorización del autor bajo la licencia creative
commons (CC).
71Técnicas de evaluación | Métodos de Usabilidad