Artículo de investigación científica y tecnológica
Revista Colombiana de Computación

Propuesta de una herramienta para la estimación de la satisfacción en pruebas de usuario, a partir del análisis de expresión facial

Proposal of a tool for the estimation of satisfaction in user tests, from facial expression analysis

Darly Mildred Delgado Agudelo1, Diego Fernando Girón Timaná1, Gabriel Elías Chanchí Golondrino1, Katerine Márceles Villalba1

1Facultad de Ingeniería, Institución Universitaria Colegio Mayor del Cauca, Popayán, Colombia

darlydelgado@unimayor.edu.co, dfgiron@unimayor.edu.co, gchanchi@unimayor.edu.co, kmarceles@unimayor.edu.co

(Recibido: 16 de mayo de 2018; aceptado: 15 de junio de 2018)


Resumen

En la actualidad, la usabilidad se ha convertido en un elemento fundamental para garantizar la calidad de los software. Una de las maneras para evaluar la usabilidad es por medio de los llamados test de usuario, los cuales se desarrollan en un laboratorio de usabilidad. Estas evaluaciones pretenden obtener indicadores de los tres principales atributos de usabilidad definidos en la norma ISO 9241-11: eficiencia, efectividad y satisfacción, considerando que la eficiencia y la eficacia están definidas por métricas que permiten evaluar estos atributos. En el caso de la satisfacción, es generalmente utilizada la percepción del coordinador de la prueba con respecto al comportamiento del usuario (gestos, posturas, expresiones faciales). En este artículo, se propone un método automatizado para monitorear el comportamiento emocional de un usuario durante una prueba de usabilidad en que la expresión facial del usuario es una variable de seguimiento. La herramienta propuesta fue desarrollada usando la librería OpenCV.

Palabras clave: emociones, reconocimiento facial, satisfacción, usabilidad.

Abstract

Nowadays usability has become a fundamental element to guarantee the quality of software. One of the ways to evaluate usability is through the so-called user tests, which are developed in a usability laboratory. These tests aim to obtain indicators of the three main attributes of usability defined in ISO 9241-11: efficiency, effectiveness, and satisfaction. With regard to efficiency and effectiveness, metrics are defined to evaluate these attributes, however, in the case of the satisfaction attribute, the perception of the test coordinator with respect to the user's behavior (gestures, postures, facial expressions) is usually used. In this paper, it is proposed an automated tool for monitoring the user's emotional behavior during a usability test, considering the user's facial expression as a monitoring variable. The proposed tool was developed using the OpenCV library.

Keywords: Emotions, facial recognition, satisfaction, usability.


1. Introducción

El desarrollo de software ha estado en continuo avance, debido al proceso de adaptación de las necesidades de las actividades humanas en medios tecnológicos. En la actualidad, gracias al desarrollo de tendencias tales como “internet de las cosas” (Gaudiano, 2011), la cantidad de aplicaciones que están surgiendo en el mercado de la informática es cada vez mayor. Por ello, cobra una importancia cada vez mayor el concepto de usabilidad, puesto que es un atributo que define la calidad del software y en qué grado las aplicaciones se adecuan a nivel funcional a las necesidades de un usuario (Enriquez y Casa, 2018).

De acuerdo a la norma ISO 9241-11, la usabilidad es entendida como “el grado en que un producto puede ser usado por determinados usuarios para lograr sus propósitos con eficacia, eficiencia y satisfacción en un contexto de uso específico” (1998). Como puede apreciarse, los atributos que definen la usabilidad son eficiencia, eficacia y satisfacción. En una prueba de usuario desarrollada en un laboratorio de usabilidad, la eficacia puede ser obtenida a partir del porcentaje de tareas cumplidas por el usuario. Por su parte, la eficiencia se puede determinar mediante el cálculo del tiempo empleado en realizar las tareas asociadas a una prueba de usabilidad. La satisfacción, por otra parte, es definida según la ISO 9241-11 como la “ausencia de incomodidad y existencia de actitudes positivas hacia la utilización del producto” (1998). Así, en una prueba de usuario, la satisfacción puede ser obtenida mediante la observación del comportamiento del usuario mientras interactúa con la aplicación (gestos, expresiones faciales, posturas, entre otras) (Enriquez & Casa, 2018; ISO 9241-11, 1998). De este modo, el atributo satisfacción es el más subjetivo de los tres, por lo que puede considerarse que el proceso de obtención de este atributo es menos preciso con respecto a los atributos de eficiencia y eficacia.

En este artículo se presenta, como aporte principal, la propuesta de una herramienta automatizada para el seguimiento emocional (expresión facial) de un usuario en una prueba de usabilidad, considerando que la satisfacción está relacionada directamente con la existencia de actitudes positivas durante el proceso de interacción. La herramienta propuesta hace uso de la cámara web dispuesta en el laboratorio de usabilidad (habitación del usuario), a través de la cual captura imágenes de manera continua y predice la posible emoción asociada al usuario en tiempo real (tristeza, felicidad, disgusto, sorpresa, neutralidad o enojo), tiene en cuenta modelos de clasificación de emociones y usa la librería OpenCV. Adicionalmente, una vez terminada la prueba de usabilidad, la herramienta permite visualizar gráficamente el comportamiento emocional del usuario a lo largo del tiempo (tiempo de duración de las pruebas), de tal modo que el evaluador o coordinador de la prueba pueda hacer un seguimiento sobre los momentos de la interacción donde se presenta un cambio abrupto.

Así, la herramienta propuesta en este artículo pretende reducir la subjetividad en la determinación del atributo satisfacción y convertirse en un instrumento de apoyo para la ejecución de pruebas de usuario en un laboratorio de usabilidad. El cuerpo del artículo está organizado de la siguiente forma: en la sección 2, se definen los conceptos que se tuvieron en cuenta para el desarrollo de este artículo. En la sección 3, se describen los trabajos relacionados que se consideraron para esta investigación. En la sección 4, se presentan los casos de uso y los diseños preliminares de la interfaz de usuario, así como el esquema funcional de la herramienta y las interfaces finales de la misma. Finalmente, en la sección 5, se describen las conclusiones y los trabajos futuros derivados de esta investigación.

2. Marco conceptual

En esta sección se presentan los principales conceptos que se tuvieron en cuenta para el desarrollo de la herramienta propuesta. Entre estos se encuentran: laboratorio de usabilidad, atributo satisfacción y modelo de emociones.

    1. Laboratorio de usabilidad.

Es un espacio físico (ITAM, 2018). Está diseñado de manera especial para la realización de evaluaciones de usabilidad y accesibilidad de sistemas y dispositivos, por medio de software y equipos especializados que permiten realizar el monitoreo, capturas y grabaciones de acciones del usuario para el posterior análisis. Un laboratorio de usabilidad debe estar diseñado para obtener indicadores que permitan obtener los atributos de eficiencia, eficacia y satisfacción.

    1. Atributo satisfacción.

Según la ISO 9241-11, la satisfacción es definida como “ausencia de incomodidad y existencia de actitudes positivas hacia la utilización del producto” (1998). Asimismo, de acuerdo con Norman (2002) y con Brave, Nass, Jacko y Sears (2002), el estudio del atributo satisfacción es un proceso complejo, dado que depende de múltiples variables asociadas al comportamiento del usuario. Siguiendo la definición de la ISO, la satisfacción está asociada a la existencia de actitudes positivas, por lo que hay una relación entre el atributo satisfacción y el comportamiento emocional del usuario. De igual modo, según Montero (2006), el atributo satisfacción se ve influenciado por el comportamiento racional y/o emocional del usuario. Por lo anterior, estudiar el comportamiento emocional del usuario puede ser adecuado para la evaluación del atributo satisfacción.

Una emoción puede ser definida, según el diccionario de la Real Academia de la Lengua Española, como: “alteración del ánimo intensa y pasajera, agradable o penosa, que va acompañada de cierta conmoción somática” y/o como “interés, generalmente expectante, con que se participa en algo que está ocurriendo” (2018). De ahí que el seguimiento del estado emocional de un usuario es un proceso que debe ejecutarse continuamente y en tiempo real.

    1. Modelo de emociones de Paul Ekman

El psicólogo y científico del comportamiento Paul Ekman se enfocó en la identificación de trastornos mentales mediante la comunicación no verbal, es decir, a través de la identificación de la expresión corporal. Mediante investigaciones pudo identificar de manera constante las expresiones faciales creadas por el movimiento de los músculos de la cara y, con esto, darles significado. Logró evidenciar que las expresiones faciales son interculturales.

Ekman estableció una lista de expresiones faciales universales y dispuso seis emociones básicas: disgusto, felicidad, neutro, tristeza y sorpresa (Ekman y Friesen, 2003). Una adaptación del modelo de emociones propuesto por Ekman se tuvo en cuenta para la caracterización de emociones dentro de la herramienta propuesta (ver Tabla 1).

Tabla 1. Clasificación del modelo de emociones

 

Emoción

Definición

Enojo

Disconformidad hacia una persona o un objeto, luego de ser agraviado.

Disgusto

Desagrado causado por algo ofensivo.

Felicidad

Sensación de satisfacción y bienestar.

Neutro

Es una sensación que no determina ninguna emoción.

Tristeza

Sentimiento de infelicidad.

Sorpresa

Sensación de malestar o sorpresa ante un incidente inesperado.

Fuente: Unmasking The Face (Ekman y Friesen, 2003)

    1. Características de las expresiones faciales y las emociones

Las emociones son un concepto ampliamente usado, cuyo origen a nivel fisiológico se encuentra en el sistema límbico (Papalia, Wendkos Olds y Duskin Feldman, 2009). A su vez, este sistema se compone de partes del cerebro como el tálamo, el hipotálamo y la amígdala cerebral, cuya función es la de regular las emociones, la memoria, el hambre y los instintos sexuales del cuerpo humano.

Para estimar las distintas emociones (Yubero, 2016) ha sido necesario emplear tecnologías de avanzada (Hamido y Mařík, 2009), lo que ha permitido poder realizar un seguimiento por medio de una cámara web de los movimientos o expresiones faciales y, a veces, con sensores que perciben los cambios fisiológicos como respuesta de las emociones que transmiten los nervios y el sudor de las personas a través de la piel (Fernandeza, Dufey y Mourgues, 2007). A pesar de las ventajas de estas tecnologías, muchas de ellas no son abiertas, por lo que se dificulta su personalización en escenarios de usabilidad, en el cual se pretenden realizar las tareas de una prueba con las emociones.

Las emociones se pueden traducir por medio de la comunicación gestual teniendo en cuenta ciertas señales que el cuerpo genera, en este caso en el rostro. Captar emociones, en realidad, se trata de reconocer o estandarizar patrones mediante las expresiones faciales, dado que las personas no hacen gestos iguales para comunicar una emoción con su cuerpo. Así, estar enfadado o estar escéptico frente algo puede expresarse con la misma reacción facial (Gonzalez y Fuensanta, 2016). Por esto, es importante tener un modelo de emociones que parametrice y seleccione la emoción más acorde a la información del rostro capturada. 

3. Trabajos relacionados

Para el desarrollo de esta propuesta de investigación se hizo necesario tener referentes que apoyaran el trabajo; a continuación, se destacan los más relevantes.

En la actualidad, aunque los sistemas de reconocimiento de identificación utilizan diferentes indicadores como la huella dactilar, el iris, la voz, entre otros, el reconocimiento facial ha sido uno de los más destacados en los últimos años. Así, Platero Plazas (2015) plantea un proyecto cuyo objetivo fue diseñar un sistema de reconocimiento facial sobre un sistema embebido, orientado a controles de acceso. El sistema obtuvo resultados satisfactorios, lo cual se vio evidenciado en un porcentaje de rostros identificados del 94 %, mientras que el 100 % de las imágenes que no contenían rostros fueron rechazadas, debido a que no se encontraban registradas en la base de datos. Otro de los aspectos a resaltar fue la implementación sobre un dispositivo SBC (Single Board Computer), que permitía un sistema de seguridad portable y de bajo costo. Este trabajo aporta importantes ideas en cuanto al uso de la librería OpenCV y del lenguaje Python en la implementación del algoritmo de reconocimiento.

Otro de los trabajos que aportó al presente fue el presentado por Marín González (2014), en el que se propuso el desarrollo de un prototipo de sistema para la detección de emociones de usuario, haciendo análisis de emociones en tiempo real. Este trabajo permitió evidenciar que la identificación de rostros de personas diferentes hace difícil la clasificación de emociones, puesto que se obtienen datos no certeros. Lo anterior condujo a la construcción de un modelo para la obtención de la matriz de proyección para cada sujeto. Este trabajo presenta como aporte el uso de la librería OpenCV y la propuesta de un modelo para el reconocimiento de emociones.

Por otra parte, existen herramientas, como la propuesta en Mascheroni, Greiner, Dapozo y Estayno (2013), que dan al evaluador la posibilidad de una prueba de usabilidad, de cargar las preguntas de una prueba de usuario y de obtener de manera automática los resultados de la evaluación. El objetivo de esta herramienta es dar soporte a los cuestionarios de satisfacción que se suelen utilizar al finalizar las pruebas de usuario dentro de un laboratorio de usabilidad. De este modo, a partir de los resultados estadísticos obtenidos de las respuestas del usuario, la herramienta estima el nivel de satisfacción en una prueba de usabilidad. Este trabajo tiene como aporte el proceso metodológico que se llevó a cabo para la construcción de la herramienta, así como también los aspectos de medición en la usabilidad que contribuyeron en la construcción de la herramienta automatizada propuesta en este artículo.

En Rodríguez (2015), se propone un proyecto donde se maneja una interfaz cerebro-computador (BCI) que permite la interacción de una persona con su entorno a través de la actividad cerebral. Este tipo de tecnología permite transmitir las emociones y/o sensaciones de un usuario a un dispositivo automatizado. El BCI es un tipo de sistema que reconoce patrones en las señales del cerebro, usando imágenes de electroencefalografías capturadas por medio de sensores. Las imágenes arrojan un patrón y el dispositivo determina un parámetro relativo al estado emocional del sujeto, como frustración, relajación, etc.

A partir de los trabajos explorados, es importante mencionar que se hace necesario aprovechar las diferentes tecnologías que permiten la obtención de emociones en el campo de la usabilidad, con el fin de obtener indicadores suficientes para estimar la satisfacción en pruebas de usabilidad. 

4. Propuesta de la herramienta

En esta sección se describen, inicialmente, los diagramas de caso de uso de la herramienta, así como el esquema funcional de la misma (diagrama de bloques y diagrama de flujo). Luego, se muestran las interfaces finales del prototipo desarrollado. A continuación, se describen de manera detallada los casos de uso, el esquema y las interfaces.

A. Casos de uso de la herramienta.

Para el desarrollo de la propuesta, considerando las características de una prueba de usabilidad, se determinó que los casos de uso deberían ser inicializados por un único actor, en este caso, el evaluador de la prueba. Asimismo, se definieron los siguientes casos de uso para la herramienta: capturar emoción, generar resultados y almacenar seguimiento de emociones. En la Figura 1 se presenta el diagrama general de casos de uso.

Figura 1. Diagrama general de casos de uso

A continuación, se presenta una breve descripción de cada uno de los casos de usos que representan la funcionalidad de la herramienta (ver Tabla 2).

Tabla 2. Descripción de los casos de uso

Caso de uso

Descripción

Capturar emoción

Mediante este caso de uso se detecta la posible emoción de un usuario, a partir de una imagen del rostro capturada en tiempo real. Cada una de estas emociones debe ser representada en la interfaz gráfica de la aplicación.

Almacenar seguimiento de emociones

Este caso de uso agrupa la funcionalidad de la herramienta relacionada con almacenar de manera constante la emoción obtenida y el tiempo en el que se capturó dicha emoción.

Generar resultados

En este caso de uso, una vez terminada la prueba, la herramienta propuesta presenta gráficamente el comportamiento emocional del usuario durante la duración de la prueba de usabilidad.

B. Diseño de la herramienta.

A partir de los casos de uso presentados en la Figura 1, se dispuso el diseño de la interfaz de usuario correspondiente a las acciones propuestas para el funcionamiento de la herramienta. En la Tabla 3 se muestran los mockups o diseños preliminares elaborados para la posterior etapa de desarrollo.

Tabla 3. Mockups

Mockup inicial de la herramienta

Mockup captura de emoción

Mockup generación de resultados




Como se puede apreciar en la Figura 2, el diseño de alto nivel de la herramienta involucra la captura de emociones, desde el momento en que inicia la prueba, hasta la generación gráfica de los resultados en el momento en que la prueba concluye.

Figura 2. Diagrama de bloques

C. Esquema funcional de la herramienta.

En la Figura 2, se presenta el diagrama de bloques de la herramienta propuesta, que consta de los siguientes módulos: captura de imagen, predicción, almacenamiento y generación de gráficas, dispuestas dentro del laboratorio de usabilidad.

En el módulo de captura de imágenes, haciendo uso de la cámara web dispuesta en el laboratorio, la herramienta obtiene de manera continua imágenes del rostro del usuario que, al tiempo, realiza una prueba de usabilidad sobre un prototipo software determinado. En el módulo de predicción, por medio de la librería OpenCV, la herramienta se encarga de validar y clasificar los rasgos capturados con el fin de obtener una de las posibles emociones: neutral, tristeza, felicidad, enojo, sorpresa o disgusto. En el módulo de almacenamiento, mediante el gestor de bases de datos TinyDB, la herramienta guarda los registros (tiempo y emoción) de las capturas realizadas en el módulo anterior. Finalmente, en el módulo de generación de gráficas, la herramienta permite la visualización del comportamiento emocional del usuario durante la prueba de usabilidad, para lo cual se hace uso de la librería Matplotlib de Python.

En la Figura 3, se muestra el diagrama de flujo que describe cada una de las etapas del funcionamiento de la herramienta automatizada.

Figura 3. Diagrama de flujo

En la etapa 1, mientras el usuario inicia la prueba de usabilidad, el evaluador de la prueba presiona el botón “iniciar” de la herramienta; en la etapa 2, la herramienta empieza a capturar continuamente las imágenes de los rasgos faciales del usuario; en la etapa 3, la herramienta realiza un proceso interno que permite validar y clasificar las imágenes del rostro en una de las seis posibles emociones, visualizando el resultado de la predicción; en la etapa 4, en caso de que el usuario haya terminado de realizar la prueba, el evaluador tiene la posibilidad de terminar el proceso, de lo contrario, se realiza un bucle desde la etapa 2; en la etapa 5, una vez terminada la prueba, la herramienta se encarga de almacenar los registros de tiempo y emoción obtenidos a partir de la predicción, para lo cual hace uso del gestor de bases de datos TinyDB; finalmente, en la etapa 6, la herramienta permite la visualización gráfica del comportamiento emocional del usuario durante la prueba, mediante los datos recolectados y almacenados en la base de datos.

D. Interfaces del prototipo

En la Figura 4, se muestra la interfaz principal de la herramienta de seguimiento emocional para prueba de usabilidad. La interfaz permite embeber el flujo de video de la cámara web del laboratorio de usabilidad y un botón que acciona o detiene el coordinador la prueba cuando inicia o termina la prueba de usabilidad. A continuación, se describe el funcionamiento de la herramienta de seguimiento emocional para pruebas de usabilidad.

Figura 4. Interfaz principal

En el momento en que el usuario inicia la prueba de usabilidad dentro del laboratorio, el evaluador se encarga de accionar el botón para iniciar la herramienta. La herramienta comienza con el proceso de captura de imágenes del rostro del usuario: esta captura es realizada por medio de una cámara de video o webcam. Seguidamente, se procede a la etapa de predicción, la cual permitirá validar las imágenes capturadas para determinar la emoción de acuerdo a la clasificación del modelo de emociones Paul Ekman, como se muestra en la Figura 5. Luego, el coordinador de la prueba tendrá la posibilidad de indicar a la herramienta el momento en que la prueba termina, por lo que se procede a realizar el almacenamiento de los registros capturados (tiempo y emoción). Finalmente, la herramienta permite visualizar de manera gráfica el estado emocional del usuario bajo dos variables, el tiempo y la emoción, como se observa en la Figura 6. Las gráficas obtenidas permiten al coordinador de la prueba realizar un seguimiento sobre el comportamiento emocional del usuario mientras interactúa dentro del laboratorio de usabilidad con un prototipo software.

Figura 5. Predicción de la emoción

Figura 6. Gráfica de seguimiento emocional

5. Conclusiones y trabajo futuro

El análisis de la satisfacción a partir de la expresión facial del usuario es uno de los métodos menos intrusivos para la obtención de indicadores emocionales, si se compara con el uso de sensores biométricos articulados al espacio corporal del usuario. En él, la captura de la expresión facial del usuario aprovecha la cámara web, que por lo general se suele utilizar en la habitación de usuario de un laboratorio de usabilidad.

En esta medida, la herramienta propuesta permite realizar un seguimiento en tiempo real al comportamiento emocional del usuario durante una prueba convencional desarrollada en un laboratorio de usabilidad, lo cual representa un aporte importante de cara a realizar una estimación más objetiva del atributo satisfacción.

La herramienta propuesta aprovecha las ventajas provistas por los algoritmos de la librería OpenCV en cuanto a la captura, procesamiento y predicción de emociones, de modo que, a partir de la predicción obtenida, se vaya almacenando la información en función del tiempo y, asimismo, dicha información pueda resultar útil al evaluador de la prueba para contrastar las diferentes interacciones del usuario con su comportamiento emocional.

Como trabajo futuro, se pretende mejorar la herramienta de tal forma que se pueda realizar un seguimiento específico por tarea de la prueba y se obtengan otro tipo de indicadores estadísticos útiles para el evaluador. Asimismo, se busca adecuar la herramienta para ejecutarla en un SBC dentro del laboratorio de usabilidad.

Referencias

Brave, S., Nass, C., Jacko, J. y Sears, A. (2002). Emotion in human-computer interaction - The Human-Computer Interaction Handbook:               Fundamentals, Evolving Technologies and Emerging Applications.

Ekman, P. y Friesen, W. (2003). Unmasking The Face. Cambridge, Estados Unidos: Malor Books.

Enriquez, J. G. y Casa, S. I. (2 de Febrero de 2018). Usabilidad en aplicaciones móviles. Informes Científicos-Técnicos UNPA, 5(2), 25-47. Obtenido de https://dialnet.unirioja.es/descarga/articulo/5123524.pdf

Fernandeza, A. M., Dufey, M. y Mourgues, C. (2007). Expresión y reconocimiento de emociones: un punto de encuentro entre evolución, psicofisiológica y neurociencias. Revista chilena de Neuropsicología, 8-20.

Gaudiano, P. (2011). Qué entendemos por «cosas» en el internet de las cosas. El Internet de las Cosas. Es un mundo conectado de objetos inteligente, 15, 11-20.

Gonzalez, A. y Fuensanta, A. (2016). El lenguaje no verbal. Claves culturales para la competencia comunicativa e intercultura. Oviedo, España: Universidad de Oviedo.

Hamido, F., y Mařík, V. (2009). New trends in software methodologies, tools and techniques. Procedimientos de la octava SoMeT_09. Amsterdam, Holanda: IOS Press.

ISO 9241-11. (1998). Guidance on usability - Norma ISO 9241-11.

ITAM. (2018). Laboratorio de Usabilidad. Recuperado el 2 de 1 de 2018, de http://dai.itam.mx/es/7/paginas/laboratorio-de-usabilidad-de-sistemas-interactivos-lusi

Marín González, E. J. (2014). Detección de emociones del usuario. Valparaiso, Chile: Pontificia Universidad Católica de Valparaíso.

Mascheroni, M., Greiner, C., Dapozo, G. y Estayno, M. (2013). Ingeniería de usabilidad. Una propuesta tecnológica para contribuir a la evaluación de la usabilidad del software. Revista Latinoamericana de Ingeniería de Software, 1(4), 125-134.

Montero, Y. H. (2006). Factores del diseño web orientado a la satisfacción y no frustracción de uso. Revista Española de Documentación Científica, 29(2), 239-257.

Norman, D. (2002). Emotion & Design: attractive things work better. Interactions, 9(4), 36-42.

Papalia, D. E., Wendkos Olds, S., y Duskin Feldman, R. (2009). Psicología del desarrollo de la infancia a la adolescencia (Undécima ed.). México D.F., México: Mc Graw Hill.

Platero Plazas, D. C. (2015). Reconocimiento de imágenes faciales orientado a controles de acceso y sistemas de seguridad. Bogotá, Colombia: Universidad Distrital Francisco Jose de Caldas. Obtenido de http://repository.udistrital.edu.co/bitstream/11349/7359/1/PlateroPlazasDonovanCamilo2015.pdf

Real Academia de la Lengua Española (2018). Diccionario de la Real Academia. Obtenido de http://dle.rae.es/?id=EjXP0mU

Rodríguez Carrillo, P. J. (2015). Método automatizado para la evaluación de la usabilidad en sistemas e-learning usando moitoreo de actividad cerebral (tesis doctoral). Medellín, Colombia.

Yubero, A. P. (2016). Smartphone como soporte para interacción afectiva: expresión afectiva (tesis de pregrado). Universidad Autonóma de Madrid y Escuela Politecnica Superior, Madrid, España. Obtenido de https://repositorio.uam.es/bitstream/handle/10486/677160/Peinador_Yubero_Ainoa_tfg.pdf?sequence=1


 Sobre los autores

Darly Mildred Delgado Agudelo

Estudiante de Ingeniería informática de la Institución Universitaria Colegio Mayor del Cauca. Entre sus áreas de interés, se encuentran la usabilidad y accesibilidad de los sistemas, además de la seguridad informática.

Diego Fernando Girón Timaná

Estudiante de Ingeniería informática de la Institución Universitaria Colegio Mayor del Cauca. Entre sus áreas de interés, se encuentran la interacción humano computador y la internet de las cosas.

Gabriel Elías Chanchí G.

Ingeniero en Electrónica y telecomunicaciones de la Universidad del Cauca, magíster en Ingeniería telemática de la Universidad del Cauca y doctor en Ingeniería telemática de la Universidad del Cauca. Actualmente se desempeña como profesor auxiliar de la Facultad de Ingeniería de la Institución Universitaria Colegio Mayor del Cauca. Entre sus áreas de interés, se encuentran: interacción humano computador, usabilidad y accesibilidad en aplicaciones interactivas e internet de las cosas.

Katerine Márceles Villalba

Ingeniera de sistemas de la Fundación Universitaria San Martín, magíster en Gerencia de mantenimiento de la Universidad del Zulia, magíster en Seguridad de la información de la Universidad Internacional de la Rioja y auditora interna del Sistema de Gestión de Seguridad de la Información de Bureau Veritas. Actualmente se desempeña como profesora ocasional de la Facultad de Ingeniería de la Institución Universitaria Colegio Mayor del Cauca. Entre sus áreas de interés, se encuentran: internet de las cosas y seguridad de la información.