Revista Colombiana de ComputaciĆ³n, 2019, Vol. 20, No 1, pp. 23-40

https://doi.org/10.29375/25392115.3605

Artículo de investigación científica y tecnológica

Medición de la usabilidad del diseño de interfaz de usuario con el método de evaluación heurística: dos casos de estudio

Measuring the usability of the design of user interface with the Heuristic Evaluation Method: two case studies

Guadalupe García Toribio1 , Yesenia Polvo Saldaña1 , José Juan Hernández Mora1 , María Janaí Sánchez Hernández1 , Higinio Nava Bautista1 , César Alberto Collazos Ordóñez2 , Julio Ariel Hurtado Alegría2

1 División de Estudios de Posgrado e Investigación, Tecnológico Nacional de México. Instituto Tecnológico de Apizaco, Apizaco, Tlaxcala, México.

2 Facultad de Ingeniería Electrónica y Telecomunicaciones, Departamento de Sistemas, Universidad del Cauca, Popayán, Colombia.

guadalupe.garcia.toribio@gmail.com, yeseniapolvos@gmail.com, juan.hm@apizaco.tecnm.mx, janai.sh@apizaco.tecnm.mx, higinio.nb@apizaco.tecnm.mx, ccollazo@unicauca.edu.co, ahurtado@unicauca.edu.co

(Recibido: 27 noviembre 2018; aceptado: 4 febrero 2019)


Resumen

La usabilidad es un factor determinante que actualmente está cobrando mayor relevancia, provocando que las empresas de software aumenten el nivel de calidad en sus fases de desarrollo. Una fase por considerar es el diseño de la interfaz de usuario, donde se debe valorar la usabilidad como un atributo de calidad, permitiendo una interacción sencilla, agradable e intuitiva, además de discutir los objetivos y requerimientos. Se visualiza que algunos sistemas no cuentan con la práctica de evaluación, provocando conflicto en identificar errores, mantenimiento y rediseño, por lo que es necesario el uso de una Evaluación Heurística (EH), que permita comprobar el nivel de usabilidad. En este trabajo se describen dos evaluaciones de un Sistema Académico - Administrativo, utilizando el método EH de Nielsen para evaluar el diseño de los módulos en su atributo de calidad con base en la usabilidad, presentando los resultados de las evaluaciones.

Palabras clave: Atributos de calidad, Usabilidad, Evaluación heurística, Experiencia de usuario.

Abstract

Usability is a key factor that is currently getting greater importance, leading software enterprises to increase the level of quality in their development stages. A phase to consider is the interface design, where it is due to value usability as a quality attribute, allowing a simple and intuitive interaction, as well to consider objectives and requirements. Is displayed that some systems don't consider the evaluation practice, causing conflict identifying errors, maintenance, redesign, therefore its necessary the use of a Heuristic Evaluation (HE), allowing check the usability level. In this paper we describe two evaluations of an Academic- Administrative System, using the method HE by Nielsen to evaluate the modules design in their quality attribute based on usability, presenting the evaluations results.

Keywords: Quality attributes, Usability, Heuristic evaluation, User experience.


1. Introducción

Actualmente con el avance tecnológico universal los requerimientos de los usuarios son cada vez más complejos, por lo cual se hace uso de nuevas tácticas a implementar, para que personas de todas las edades, capacidades y diferentes perfiles socioculturales, puedan interactuar de forma eficiente, cómoda e intuitiva con cualquier sistema, producto o aplicación de software, por lo que se hace pertinente recurrir a la medición de usabilidad. El estándar ISO 9241 la define como "la extensión en que un producto puede ser utilizado por usuarios específicos para alcanzar objetivos determinados con efectividad, eficiencia y satisfacción dentro de un contexto" (International Organization for Standardization, 1998, p.2). Este término solo ha sido utilizado para analizar aquellos factores que contribuyen a que un sistema web resulte fácil de utilizar, ya que la creciente demanda de productos de software ha hecho que la usabilidad sea inherente y, por lo tanto, es de suma importancia que garantice que el producto final sea de calidad y se cumplan los objetivos definidos desde la creación de este. Jakob Nielsen define “la facilidad de uso como la calidad y atributo en relación con algo tan fácil de usar” (Chimarro Chipantiza, Mazón Olivo & Cartuche Calva, 2015, p.15).

Debido a la implementación incorrecta de la usabilidad, se puede llegar a obtener un sistema deficiente con una mala estructuración de elementos relacionados o en un caso crítico al fracaso total. Por tal motivo existen distintos métodos y escenarios de evaluación para medir la usabilidad de un sistema, tras analizarlos y comprenderlos se determinó utilizar el método de Evaluación Heurística de Nielsen (1995). Esta consiste en un grupo de expertos que valoran si los elementos de la interfaz del usuario de un sistema web o aplicación corresponden con los principios de usabilidad establecidos a partir de una lista de heurísticas. La técnica consigue detectar un gran número de problemas de usabilidad en el diseño de un sistema web, provocando un menor coste que las técnicas que involucran usuarios (Montes de Oca, 2004).

Por lo cual, es importante implementar una evaluación en el diseño del sistema, para poder explorar y clasificar los problemas encontrados en esta etapa y así poder solucionarlos evitando pérdida de tiempo, costo y trabajo, entre otros factores.

Suárez Torrente (2011) menciona que "la evaluación de la usabilidad es una de las tareas más importantes que deben emprenderse cuando se desarrolla una interfaz de usuario", por lo que evaluar este atributo constituye solo una parte de la ingeniería de la usabilidad.

El presente documento aborda la evaluación de usabilidad en dos diseños de interfaz de un Sistema Académico - Administrativo, con dos módulos diferentes denominados “Residencias Profesionales” y “Tutorías”, los cuales fueron creados sin seguir métricas de usabilidad, con el fin de mitigar riesgos de codificación e interfaces de usuario posteriores, así como tomar algunas acciones correctivas sobre la estructura, por lo cual se reporta una experiencia de evaluación en el diseño.

Este artículo está organizado de la siguiente forma: en la sección 2 describe los diferentes métodos de evaluación de usabilidad; en la sección 3 se describe el ajuste del método de Evaluación Heurística de Nielsen; en la sección 4 se presenta el reporte de experiencia que incluye cómo fue preparada, conducida, sistematizada y, en adición, los resultados obtenidos con la experiencia de evaluación en los diseños de los módulos de “Residencias Profesionales” y “Tutorías” con el método de EH de Nielsen, donde se midió el diseño del prototipo de interfaz con foco de atributo de usabilidad; finalmente, en la sección 5 se presentan las conclusiones.

2. Tipos de métodos de evaluación de usabilidad

Los métodos tradicionales de evaluación de usabilidad para sistemas Web son cuestionados actualmente por no tener en cuenta al usuario (Abran, Khelifi, Suryn & Seffah, 2003), en relación con la experiencia obtenida en la interacción con el sistema. Preece, Rogers & Sharp (2005) definen a un sistema como “un proceso sistemático de recolección de datos con la finalidad que el usuario utilice el artefacto para realizar sus tareas en el entorno computacional”. En este sentido, se ha tenido la necesidad de diseñar un prototipo de sistema Web, que integre la usabilidad como una parte importante del sistema, ya que es el atributo de calidad que determina si el manejo del sistema es fácilmente aprendido, difícilmente olvidado, no provoca errores, satisface a sus usuarios, y si eficientemente resuelve las tareas para las que fue proyectado. Los métodos de evaluación de usabilidad varían según las características del sistema o la etapa de desarrollo (Bevan, 1991), entre otros aspectos, que se dividen en tres categorías que reflejan una amplia variedad de métodos de evaluación. Algunos de ellos se mencionan a continuación:

2.1 Inspección

Evaluación Heurística

Es un método que tiene como finalidad analizar la conformidad de la interfaz con principios reconocidos mediante la inspección de varios evaluadores. Estos evaluadores se basan en principios previamente definidos. Se utiliza esta evaluación en la usabilidad para medir la calidad de la interfaz de un sistema en relación con la posibilidad de ser aprendido y usado por un grupo de usuarios en un contexto de uso (Manzari & Trinidad-Christensen, 2006).

Este método se destaca debido a su coste bajo, no obstante, este mismo puede variar dependiendo de cuántos evaluadores estén contemplados para el mismo. Sin embargo, el uso de EH trae resultados positivos. Según Nielsen, en este método se detecta, aproximadamente, el 42% de los problemas graves de diseño, así como un 32% de problemas menores; todo esto depende de la cantidad de personas que fungen como evaluadores (Nielsen, 1994c).

Recorrido cognitivo

El enfoque de este método es evaluar la facilidad de un diseño al ser entendido; sus evaluadores construyen diversos escenarios y tareas, para posteriormente asumir el rol del usuario para trabajar con la interfaz (Blackmon & Bainbridge, 2004). Su principal idea es identificar los objetivos de los usuarios y los problemas que tendrían en la interacción. La ventaja del recorrido cognitivo es que está sustentado en el aprendizaje basado en la exploración y solo requiere del criterio de un experto. Wharton et al. (1994) menciona que “esta técnica se debe centrar en la evaluación de la facilidad de aprendizaje”.

2.2 Indagación

Entrevista

Se toma este instrumento con el fin de obtener información sobre la percepción de los usuarios acerca de distintos aspectos del sistema. Adicional a las entrevistas, también se crean cuestionarios; estos ocasionan que la entrevista sea menos flexible, pero hace que lleguen a más usuarios y a un panorama más amplio, para generar reportes estadísticos con mayor facilidad. Estos medios implican también un coste bajo al momento de realizar la evaluación ya que resulta de gran ayuda a los recursos tecnológicos (Claros Gómez, 2006).

Observación de campo

La característica de este método es prestar atención en los entornos de ejecución de los usuarios representativos, donde se diseñan entrevistas y sesiones de observación directa al entorno, ya que su objetivo principal es comprender cómo son realizados los diversos procesos y tareas, además de saber y entender su modelo mental (Nielsen, 1994b).

2.3 Test

Interacción constructiva

Se entiende como una derivación del método “pensando en voz alta”, el cual Nielsen describe como el medio en el que se pueden expresar múltiples pensamientos, sentimientos, puntos de vista y opiniones de cómo luce el aspecto, funcionalidad, aprendizaje, entre otros, mientras se va interactuando con el sistema. El método de interacción constructiva implica tener en vez de uno, dos usuarios que hagan el test al sistema conjuntamente. Estas dos personas intercambian opiniones y dan como resultado el grado de usabilidad en el sistema (Reyes Vera & Libreros Giraldo, 2011).

Método Conductor

Este tipo se cataloga en los diferentes usuarios ya que se centra en los usuarios inexpertos. Su objetivo principal es averiguar las necesidades de información de los involucrados evaluados, de tal manera que se proporcione un mejor entendimiento y documentación de un posible rediseño de la interfaz, para así aprovechar el tiempo de recopilación (Lorés & Granollers, 2004).

Aunado a los anteriores tipos de evaluaciones de usabilidad estudiados, se descubrió que en la categoría de indagación la “entrevista y observación de campo” se enfocan más en la visualización del usuario que en su entorno de trabajo para la realización de la evaluación, ya que consiste en hablar con los usuarios, observarlos detenidamente usando el sistema en trabajo real y obtener respuestas a preguntas formuladas verbalmente o por escrito. En el caso de la categoría de test la “interacción constructiva y el método conductor” son evaluaciones que se enfocan en el proceso de interacción en el sistema entre uno o más usuarios inexpertos, para poder intercambiar ideas y rediseño del mismo, ocasionando que la evaluación no sea la esperada.

En este sentido, fue seleccionado el EH de Nilsen como método de evaluación de la usabilidad por inspección, en el cual se muestra una lista de heurísticas referentes a evaluar, presentando como característica del método la resolución y hallazgo de errores de usabilidad, los cuales son en gran medida elementos que se han definido para efectuar la inspección de la interfaz. También se describe el tratamiento del contenido que debe contener la información necesaria acorde a la realidad social, además de que toma en cuenta la interacción entre el usuario y el diseño con un grado de atracción en la complacencia de los resultados.

3. Ajuste del método de Evaluación Heurística de Nielsen

Dado el objetivo de la evaluación en los dos casos de estudio, se utilizaron los principios de Heurística de Nielsen, con los cuales se estipula si el sistema es usable o no. Cabe resaltar que estas son algunas reglas que definen un concepto de evaluación (Nielsen, 1994a). Para dar paso a la EH se definieron los principios a realizar basados en el estudio de diseño del prototipo, partiendo de una lista de elementos tomados en cuenta, los cuales son presentados a continuación:

I. Visibilidad del diseño del prototipo del sistema. Es indispensable establecer que cada diseño del prototipo debe informar al usuario final dónde se encuentra, qué está pasando y qué tarea está realizando en todo momento. Es importante mostrar que todos y cada uno de los enlaces que se exploran están claramente señalados para permitir al usuario conocer cómo interactuar con el sistema.

II. Relación entre diseño y el mundo real. Como función primordial el diseño debe utilizar el lenguaje de los usuarios y no uno propio relacionado con la tecnología, además de ser claro y comprensible. Se deben utilizar conceptos que sean entendibles, así como palabras con un significado conocido. Por último, al incluir íconos, imágenes o gráficos, deben generar un significado representativo para determinar una mejor interacción en el sistema, evitando equivocaciones.

III. Navegación y libertad en el diseño del prototipo. Para tener una mejor interacción el usuario debe tener la sensación de que posee el control de navegación del diseño, dándole la opción de realizar la acción de regresar al punto anterior con la ayuda de botones, con la finalidad de ofrecer una buena navegación y desplazamiento entre módulos y/o pantallas.

IV. Consistencia y estándares. En cada diseño de navegación realizada debe existir coherencia entre sintaxis, lenguaje, apariencia visual, iconos y efectos de nombres de un enlace, así como el sitio al que apunta. A su vez, todos y cada uno de ellos debe tener contenido, sin excepción, con la finalidad de que sea llevado a un sitio en particular.

V. Prevención de errores. Se presentan mensajes que prevengan posibles errores para una mejor interacción, evitando que el problema ocurra. Es conveniente hacer un diseño sin inducción a cometer errores. Para alcanzar este objetivo se crean sugerencias de interacción, ya sea formato de texto, moneda, fechas, teléfonos, asistentes de búsqueda, entre otros. Si ha sucedido el error se debe informar al usuario qué ha ocurrido, ayudándolo a encontrar la solución a su inconveniente.

VI. Reconocer en lugar de recordar. El principal objetivo es que cada recurso implementado sea fácilmente reconocible, que cada enlace a acceder pueda ser identificado claramente y permita reconocer dónde se encuentra el usuario en todo momento. Con esto no tendrá que recordar la información de una parte del diálogo a otra. Aquí recaen dos conceptos, reconocimiento y recuerdo, siendo más fácil reconocer que recordar; tomando como resultado que el reconocimiento es práctico, rápido y sin complejos.

VII. Estética y diseño minimalista.  La información presentada al usuario debe ser relevante, favoreciendo el reconocimiento antes del recuerdo, mostrando en cada diseño la correcta clasificación, organización y distribución del diseño del prototipo.

VIII. Reconocimiento, diagnóstico de errores. Todo diseño es propenso a contener errores. En algunas ocasiones es difícil reconocerlos, por lo que se hace necesario la utilización de mecanismos para solucionarlos, los cuales auxilian al usuario para una mejor interacción. Todo error mostrado debe ser explícito, entendible, preciso y constructivo. También, estos reconocimientos permiten, en cierta forma, educar al usuario para ofrecer mejor uso.

IX. Tratamiento del contenido. El contenido debe ser adecuado con la realidad social y cultural del usuario. Esto constituye un valor agregado con relación al mismo en otro medio.

X. Pedagogía. En un prototipo es fundamental la definición de perfiles de usuarios del diseño de la interfaz a elaborar, ya que determina el objetivo de la discriminación de cada sección a interactuar.

XI. Satisfacción. La diversa interacción entre el usuario y el diseño debe contener un grado de atracción en la complacencia de los resultados, además de una potenciación de participación del usuario en las tareas del sistema.

4. Reporte de experiencia: evaluación y resultados de usabilidad en los módulos del sistema académico - administrativo con el método de EH de Nielsen

En esta sección se presenta el proceso propuesto con respecto a la adaptación del EH de Nielsen (1994a) mostrando la ejecución de la evaluación de acuerdo con el objetivo establecido, para evaluar la usabilidad del diseño de los módulos “Residencias Profesionales” y “Tutorías” del Sistema de Servicios Integrales de una Institución de Educación Superior, al tiempo se analizan sus diversos factores y atributos de calidad. Abordando el plan establecido que se describe en la Tabla 1 se observan los valores de medición que serán otorgados para cada heurística. Los principios de evaluación son presentados de la Tabla 2 a la 12. En cada principio heurístico, se listan algunos de los puntos particulares para ser cumplidos en la evaluación a través de este método.

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Nota: tomada de Sánchez I (2000).

 

Acorde a los principios identificados anteriormente se presentan los reportes de experiencia y se ejecutan los siguientes puntos en cada caso de estudio:

4.1. Caso de estudio: Residencias Profesionales (RP)

Identificación de los interesados que interactúan en el módulo (RP)

En el proceso de evaluación se definieron los perfiles y acciones de los usuarios que intervienen en el módulo, los cuales se muestran en la Tabla 13.

Aplicación y resultados de la evaluación a un perfil

En la evaluación del módulo de “Residencias Profesionales” se tomó una muestra de quince personas del perfil Residente. En la Tabla 14 son presentados los resultados Heurísticos obtenidos de cinco de las muestras, allí se visualizan los totales de cada Heurística y el total de cada Evaluación. Al analizar la puntuación otorgada por cada residente en cada heurística, se presentan similitudes en algunos apartados donde se puede determinar la falta o buena implementación de usabilidad, por lo que se estableció seguir con más evaluaciones para tener un mejor resultado de usabilidad. De igual manera los formatos utilizados para las evaluaciones se aplicaron para todos los perfiles que se mencionan en la Tabla 13.

 

Tras los resultados obtenidos anteriormente, se elaboró una tabla de medición que otorga valor al total de cada principio heurístico y al porcentaje total de la evaluación, obteniendo como resultado el nivel de usabilidad del diseño (ver Tabla 15). Con respecto a los resultados detallados de la Tabla 14 y la utilización de los valores de medición mencionados previamente, se presenta en la Tabla 16 el porcentaje total obtenido de la muestra de cinco evaluaciones al perfil Residente, dando como resultado tres evaluaciones con valor de “Muy bueno” y dos con valor de “Bueno”, lo que demuestra que el diseño contiene atributos de usabilidad. Con los resultados obtenidos se realizó un análisis a cada una de las heurísticas, ya que en algunas de ellas se visualizó la falta de usabilidad, en las cuales se propusieron mejoras para un mejor diseño.

 

 

Obtención de resultados generales

En la Tabla 17 se visualiza el número de evaluadores de cada perfil, mostrando los porcentajes finales obtenidos. Con la utilización de la Tabla 15 del apartado (Porcentaje Total) se puede identificar el nivel de Usabilidad obtenido por cada Evaluación.

 

Tras obtener los resultados de la Tabla 17 se determinó que el apartado del Residente tiene mayor impacto con valor de usabilidad de “Bueno”, puesto que de las 15 evaluaciones 8 obtuvieron esa característica, además de contar con mayor número de observaciones en las heurísticas VIII y IX, donde se apreció un menor número de usabilidad, en las cuales se dictaminaron mejoras. En la heurística VIII se estableció el reconocimiento de errores para el usuario, ya que la idea es ayudarlo más en la interacción, finalmente, en la heurística IX se estipuló identificar claramente los perfiles de usuario, toda vez que ocasionalmente se confundían los roles en el diseño. De esta forma se otorgó una oportunidad de mejora.

Conforme a los resultados de los diferentes perfiles del diseño global, se llegó a determinar que algunas partes necesitaban ser analizadas con mayor detalle, pues los usuarios confundían la interacción en algunas partes de la interfaz, por tal motivo no se contaba con un nivel estable de usabilidad. Tras la presentación del análisis realizado en la evaluación en la fase de los resultados de cada heurística, se adquirió una oportunidad de cómo minimizar o mitigar algunos problemas.

4.2 Caso de estudio: Tutorías (T)

Identificación de los interesados que interactúan en el módulo (T)

En el siguiente proceso de evaluación también se definieron los perfiles y acciones de los usuarios que intervienen en el módulo, los cuales se muestran en la Tabla 18.

 

Aplicación y resultados de la evaluación a un perfil

En la evaluación del módulo de “Tutorías” se tomó una muestra de quince personas del perfil Tutorado. En la Tabla 19 son presentados los resultados Heurísticos obtenidos de cinco de las muestras, en ella se visualizan los totales de cada Heurística y el total de cada Evaluación. Una vez obtenidos los resultados de las cinco muestras del perfil tutorado se observó que existía semejanza en los valores totales de la puntuación, lo que permitió seguir aplicando evaluaciones con la finalidad de mejorar la eficiencia de los resultados. Los formatos utilizados para la evaluación se aplicaron para todos los perfiles que se mencionan en la Tabla 18.

 

Tras los resultados obtenidos se elaboró una tabla de medición que otorga valor al total de cada principio heurístico y al porcentaje total de la evaluación, obteniendo como resultado el nivel de usabilidad del diseño (ver Tabla 20).

 

Con respecto a los resultados detallados de la Tabla 19 y la utilización de los valores de medición mencionados previamente, en la Tabla 21 es presentado el porcentaje total obtenido de la muestra de cinco evaluaciones al perfil Tutorado, dando como resultado cinco evaluaciones con valor “Muy bueno”, lo cual demuestra que el diseño contiene niveles de usabilidad. Puesto que los resultados de cada heurística fueron diferentes se identificaron aquellas que tuvieron bajo puntaje y se procedió a realizar un análisis de usabilidad para detectar problemas y proponer mejoras que faciliten al usuario el manejo del diseño.

 

Obtención de resultados generales

En la Tabla 22 se visualiza el número de evaluadores de cada perfil, mostrando los porcentajes finales obtenidos. Con la utilización de la Tabla 20 del apartado (Porcentaje Total) se puede identificar el nivel de Usabilidad obtenido por cada Evaluación.

 

A partir de los resultados obtenidos de la evaluación de 15 de los evaluadores del perfil Tutorado de la Tabla 22, se obtuvo como nivel de usabilidad con mayor puntuación el valor “Bueno”, lo que significa que no existe una satisfacción total, por lo que se propuso la implementación de nuevas mejoras a las heurísticas que tuvieron menos puntuación:

I. Visibilidad del diseño del prototipo: en esta heurística se observó que algunos usuarios no identificaban claramente en qué apartado del sistema se encontraban debido a la similitud entre plantillas, por lo que se mejoró el diseño del sistema para que el usuario pueda identificar en dónde se encuentra y hacer más notables los enlaces para mejorar su visualización.

V. Prevención de errores: algunos de los usuarios cometían errores al momento de ingresar los datos en el sistema, por lo que se agregaron guías a cada campo donde se ingresa la información, así como el agregado de mensajes de prevención de errores, logrando que el sistema no induzca a cometer errores.

IX. Tratamiento del contenido: algunos de los evaluadores observaron que los perfiles eran parecidos y ocasionaba confusión al momento de realizar la evaluación, por lo que se resaltaron las preferencias de cada usuario.

Con los resultados obtenidos de los demás perfiles se determinó mejorar la experiencia del usuario en aquellas partes que necesitaban ser analizadas con mayor detalle, de modo que permita lograr el grado de satisfacción ofrecido en las distintas secciones y elementos del diseño en cuanto al cumplimiento de las tareas u objetivos para las que fue diseñada, evitando la confusión y conflicto de interacción de diseño.

5. Conclusiones

Este artículo ha presentado el uso de un método de Evaluación Heurística de Nielsen enfocado en la usabilidad, evaluando el diseño de interfaz de los módulos denominados “Residencias Profesionales” y “Tutorías”. Las características de los dos casos de estudio propiciaron un entorno adecuado para la evaluación mediante el empleo de los principios heurísticos, permitiendo identificar la subjetividad adherida a los atributos de usabilidad en el diseño, así como la detección del origen de los problemas, brindando recomendaciones para que estos puedan ser corregidos en las fases tempranas del diseño (Holzinger, 2005).

Los resultados obtenidos en el primer caso de estudio del módulo de “Residencias Profesionales” derivaron de los diferentes perfiles y el número de evaluadores que se tomaron como muestra. En la Tabla 23 se registraron los resultados de las evaluaciones con valores: Muy bueno, Bueno, Neutro, Malo y Muy malo, mostrando el porcentaje de usabilidad de cada perfil en el diseño. Se obtuvo como resultado mayor, con la cantidad de 39, el valor “Bueno”, seguidamente 21 “Muy bueno”, y finalmente 4 “Neutro” en todo el diseño.

 

Además de obtener los resultados del diseño de la interfaz de cada perfil, se identificaron algunos puntos de mejora en aspectos referentes a la interacción del usuario; por ejemplo, se visualizó que algunos de los evaluados tenían diferentes capacidades de interpretación referente al significado de las palabras e iconos utilizados en el diseño, así como la falta de análisis en acciones a realizar, ya que cometían errores que los llevarían a la pérdida de información.

En cuanto al diseño de la interfaz se detectó en algunos casos la falta de mensajes que ayudaran al usuario a verificar si era la acción que deseaba realizar. Otro punto que se manifestó fue el tener el mismo diseño para todos los perfiles y que en ocasiones algunos podían ser dos roles al mismo tiempo. Al llegar a interactuar con las dos interfaces se confundía la sesión en la que se encontraban, por lo cual se propuso que en cada menú de los diferentes roles se determinara para quién era dirigido, por ejemplo, Asesor o Revisor. Tras estos y otros puntos identificados tanto en el diseño como en la interacción del usuario, se logró determinar que se pueden seguir implementando mejoras en los puntos frágiles del proyecto para posteriormente tener una elaboración factible del sistema.

Los resultados obtenidos en el segundo caso de estudio del módulo de “Tutorías” derivaron de los diferentes perfiles y el número de evaluadores que se tomaron como muestra. En la Tabla 24 se registraron los resultados de las evaluaciones con valores: Muy bueno, Bueno, Neutro, Malo y Muy malo, mostrando el porcentaje de usabilidad de cada perfil en el diseño; se obtuvo como resultado mayor, con la cantidad de 28, el valor “Bueno”, seguidamente 9 “Muy bueno” y por último 6 “Neutro” en todo el diseño.

 

Esta evaluación motivó al objetivo del presente artículo para comprender los problemas por resolver, ya que se encontraron aspectos referentes a la interacción del usuario, es decir, que los evaluadores al momento de proporcionar la información en los campos correspondientes no tenían guías de ayuda para saber qué datos ingresar, lo que ocasionaba que cometieran errores, por lo que se propuso agregar guías de ayuda como mejora del diseño.

Se encontró que algunos de los evaluados no podían leer el texto fácilmente, puesto que la tipografía que se utilizaba no tenía un tamaño de texto apropiado para los usuarios, por lo cual se propuso utilizar una fuente de texto adecuada, además de tener un interlineado y separación de palabras suficiente, de tal manera que pueda ser leído. Estas propuestas de mejora en el diseño permitirán posteriormente tener un desarrollo factible del sistema.

Entre los aspectos a destacar, como resultado de este trabajo, mediante los once principios heurísticos de Nielsen se identificó que los usuarios prefieren un diseño agradable, involucrando en este aspecto la disposición de elementos sin sobrecarga de imágenes o de información, búsquedas de resultados apropiados o precisos y que durante el recorrido entre los bocetos de diseño sea sencillo y fácil de recordar, con el fin de obtener la satisfacción y potenciación de la participación del usuario.

Al mismo tiempo se obtuvieron evaluaciones prácticas y sencillas, sin embargo, no solo se llegó a medir la usabilidad en el contenido, sino también la usabilidad en la experiencia del usuario, basado en tres aspectos: imagen en el diseño interactivo, buen contenido y la obtención de respuestas acertadas en la interacción del prototipo.

Es relevante que un diseño debe estar enfocado en los usuarios que llegarán a interactuar con la interfaz. Con los diversos resultados obtenidos en los dos casos de estudio se estableció que los diseñadores no tomaron en cuenta los diferentes tipos de usuarios respecto a un perfil, algunos no tenían la misma capacidad de comprender la interacción, impidiendo lograr la satisfacción, así mismo, provocando que los usuarios desertaran en el manejo de la interfaz, por lo cual se les manifestó a los diseñadores investigar y analizar los diversos usuarios que puede llegar a tener el sistema.

Se discutió sobre el idéntico diseño para todos los perfiles, toda vez que en el caso de los menús no todos contaban con el nombre del perfil correspondiente, lo que ocasionó confusión al momento de interactuar con las dos interfaces, por lo que se planteó al diseñador determinar un nombrado en la parte superior de cada menú. De igual forma se pudo percibir que los evaluadores no concordaban con la tipografía utilizada en el diseño ya que en distintitas ocasiones los usuarios tenían que acercarse a la pantalla para poder leer el contenido, por lo que se expresó al diseñador la integración de una mejor fuente de texto en los diversos apartados de los módulos.

Otro factor importante que se consideró en la evaluación es que los diseñadores integraron en algunas partes vocabulario no conocido por parte de los usuarios. Al estar navegando se preguntaban a qué se referían algunas palabras como “Módulo”, con lo cual no sabían si seguir con la interacción o asociarlo con otro aspecto que consideraban referente a la palabra, de esta forma en algunas ocasiones tenían la incertidumbre de si era correcta su definición o esperar a preguntar a otro usuario, lo que conllevó a analizar esta característica del diseño, por lo cual se determinó una mejora para que el diseñador utilice vocabulario referente a los usuarios.

Tras estos sucesos fue necesario resaltar la información de interés de cada usuario, por lo que se presentaron las retroalimentaciones a los diseñadores para poder llegar a tener una mejor usabilidad en el diseño de la interfaz en los dos casos de estudio. En este sentido, es indispensable elaborar un proceso de evaluación de usabilidad temprana en la fase de diseño, otorgando posteriormente en las siguientes fases un grado de factible en el desarrollo del sistema. Por lo tanto, esta evaluación puede ser empleada en cualquier diseño de interfaz web, dirigido por un prototipo de navegación. Finalmente, se enfatiza que una Evaluación Heurística consta de diferentes pasos siendo cada uno de ellos crucial para lograr el éxito.

Declaración de conflicto de intereses

Los autores declaran no tener conflicto de intereses con respecto a la investigación, autoría y/o publicación de este artículo.

Referencias

Abran, A., Khelifi, A., Suryn, W., & Seffah, A. (2003). Consolidating the ISO Usability Models. In Proceedings of 11th international software quality management conference (pp. 23–25). Glasgow, Scotland, UK.

Bevan, N. (1991). What is usability. In Human Aspects in Computing: Design and Use of Interactive Systems and Work With Terminals.

Blackmon, M. H., & Bainbridge, W. S. (2004). Cognitive walkthrough. In Encyclopedia of human-computer interaction (pp. 104–107).

Chimarro Chipantiza, V. L., Mazón Olivo, B. E., & Cartuche Calva, J. J. (2015). La usabilidad en el desarrollo de software. Universidad Técnica de Machala. Retrieved from http://repositorio.utmachala.edu.ec/handle/48000/6878

Claros Gómez, I. D. (2006). Lineamientos de Diseño para el Desarrollo de Aplicaciones Usables bajo Entornos Web. Retrieved September 26, 2018, from http://artemisa.unicauca.edu.co/~iclaros/usabilidad/tecnicas.htm

Holzinger, A. (2005). Usability engineering methods for software developers. Communications of the ACM, 48(1), 71–74.

International Organization for Standardization. (1998). ISO 9241-11:1998 Ergonomic requirements for office work with visual display terminals (VDTs) -- Part 11: Guidance on usability. Retrieved from https://www.sis.se/api/document/preview/611299/

Lorés, J., & Granollers, T. (2004). La Ingeniería de la Usabilidad y de la Accesibilidad aplicada al diseño y desarrollo de sitios web. Lleida.

Lorés, J., & Granollers, T. (2004). La Ingeniería de la Usabilidad y de la Accesibilidad aplicada al diseño y desarrollo de sitios web. Lleida.

Manzari, L., & Trinidad-Christensen, J. (2006). User-Centered Design of a Web Site for Library And Information Science Students: Heuristic Evaluation And Usability Testing. Information Technology and Libraries, 25(3), 163–169. https://doi.org/10.6017/ital.v25i3.3348

Montes de Oca, A. (2004). Arquitectura de información y usabilidad: nociones básicas para los profesionales de la información. Acimed, 12(6).

Nielsen, J. (1994a). 10 Usability Heuristics for User Interface Design. Retrieved October 1, 2018, from https://www.nngroup.com/articles/ten-usability-heuristics/

Nielsen, J. (1994b). Usability Engineering. San Francisco, CA.: Morgan Kaufmann Publishers Inc. Retrieved from https://dl.acm.org/citation.cfm?id=2821575

Nielsen, J. (1994c). Usability inspection methods. In Conference companion on Human factors in computing systems (pp. 413–414).

Nielsen, J. (1995). How to conduct a heuristic evaluation. Retrieved from http://www.ingenieriasimple.com/usabilidad/HeuristicEvaluation.pdf

Preece, J., Rogers, Y., & Sharp, H. (2005). Design de interação: além da interação homem-computador.

Reyes Vera, J. M., & Libreros Giraldo, F. A. (2011). Método para la evaluación integral de la usabilidad en sistemas e-Learning. Educación En Ingeniería, 6(12), 69–79. Retrieved from https://www.educacioneningenieria.org/index.php/edi/article/view/126

Sánchez I., J. (2000). “Evaluación de Usabilidad de Sitios Web”: Método de evaluación heurística. Retrieved from http://bolivarzuiga.com/wp-content/uploads/2009/11/pautaevaluacionheuristica.pdf

Suárez Torrente, M. del C. (2011). Sirius: sistema de evaluación de la usabilidad web orientado al usuario y basado en la determinación de tareas críticas. Universidad de Oviedo.

Wharton, C. (1994). The cognitive walkthrough method: A practitioner’s guide. In Usability inspection methods.

 

Sobre los autores

Guadalupe García Toribio

Ingeniera en Informática. Instituto Tecnológico Superior de Teziutlán, 2016. Actualmente estudiante de Maestría en Sistemas Computacionales del Instituto Tecnológico de Apizaco. Su investigación está relacionada con el desarrollo e implementación del módulo de “Tutorías” de una Institución de Educación Superior.

Yesenia Polvo Saldaña

Ingeniera en Tecnologías de la Información y Comunicaciones. Instituto Tecnológico de Apizaco, 2016. Actualmente estudiante de Maestría en Sistemas Computacionales del Instituto Tecnológico de Apizaco. Su investigación está relacionada con el desarrollo e implementación del módulo de “Residencias Profesionales” de una Institución de Educación Superior.

José Juan Hernández Mora

Ingeniero en Computación, Universidad Autónoma de Tlaxcala, 1994. Maestro en Ciencias Computacionales por el Centro Nacional de Investigación y Desarrollo Tecnológico del TecNM, 2003. Profesor Investigador del Tecnológico de Apizaco del TecNM. Docente de la Maestría en Sistemas Computacionales del Instituto Tecnológico de Apizaco.

María Janaí Sánchez Hernández

Licenciada en Informática, Instituto Tecnológico de Apizaco, 2001. Maestra en Ciencias de la Computación, Instituto Tecnológico de Apizaco, 2006. Docente del Departamento de Sistemas y Computación, 2006. Coordinadora de la Maestría en Sistemas Computacionales, del Instituto Tecnológico de Apizaco, 2015.

Higinio Nava Bautista

Ingeniero en Computación, Universidad Autónoma de Tlaxcala, 2007. Maestro en desarrollo de Software, Instituto Universitario en Tecnologías y Humanidades, 2012. Docente en la Carrera de Ingeniería en Tecnologías de la Información y Comunicaciones. Docente de la Maestría en Sistemas Computacionales del Instituto Tecnológico de Apizaco.

César Alberto Collazos Ordóñez

Ingeniero en Sistemas y Computación, Universidad de los Andes, 1993. Doctor en Ciencias Mención Computación, Universidad de Chile, 2004. Estancias postdoctorales en el Grupo CARL (Collaborative Applications Research Laboratory) de la Universidad de Chile, 2004 y en el Grupo C.H.I.C.O (Computer Human Interaction and Collaboration) de la Universidad Castilla-La Mancha, España, 2005. Vicepresidente de la Sociedad Colombiana de Computación. Coordinador Grupo IDIS (Investigación y Desarrollo en Ingeniería del Software), Universidad del Cauca.

Julio Ariel Hurtado Alegría

Ingeniero en Electrónica y Telecomunicaciones, Universidad del Cauca, 1997. Especialista en Redes y Servicios Telemáticos, Universidad del Cauca. Especialista en Procesos para el Desarrollo de Software, Universidad San Buenaventura, 2002. Doctor en Ciencias de la Computación de la Universidad de Chile, 2012. Profesor Titular de la Universidad del Cauca. Miembro del Grupo IDIS desde el año 2005.