La UB desarrolla un nuevo sistema de inteligencia artificial para analizar la calidad de la comunicación no verbal

El sistema mide el nivel de agitación de quien realiza la presentación en función del movimiento de los brazos respecto al cuerpo y al ritmo de la voz.
El sistema mide el nivel de agitación de quien realiza la presentación en función del movimiento de los brazos respecto al cuerpo y al ritmo de la voz.
Investigación
(02/03/2015)

Mirar al tribunal a la vez que se habla y se gesticula se correlaciona con notas más altas en las presentaciones académicas: así lo refleja el nuevo sistema de inteligencia artificial para analizar la calidad de la comunicación no verbal que han desarrollado investigadores de la UB.

En la actualidad, la competencia en comunicación es una de las cualidades más relevantes, tanto en el aspecto profesional como en el personal. En el caso concreto de la universidad, hasta ahora la evaluación se centraba  en valorar el dominio de los contenidos y la capacidad para redactarlos; pero «con la entrada en el Espacio Europeo de Educación Superior se valoran mucho más las competencias relacionadas con el trabajo en equipo o la comunicación», tal como explica Sergio Escalera, investigador de la Facultad de Matemáticas de la UB y jefe del Grupo de Investigación de Análisis Automático del Comportamiento Humano (HuPBA) . Escalera, que también es miembro del Centro de Visión por Computador, ha liderado el desarrollo del nuevo sistema junto con los estudiantes de tercer ciclo de la UB Álvaro Cepero y Albert Clapés. El sistema propuesto, descrito en un artículo que ha publicado la revista AI Communications, es la evolución de uno anterior que desarrolló este grupo de investigadores con el apoyo del estudiante de doctorado Víctor Ponce.

 

El sistema mide el nivel de agitación de quien realiza la presentación en función del movimiento de los brazos respecto al cuerpo y al ritmo de la voz.
El sistema mide el nivel de agitación de quien realiza la presentación en función del movimiento de los brazos respecto al cuerpo y al ritmo de la voz.
Investigación
02/03/2015

Mirar al tribunal a la vez que se habla y se gesticula se correlaciona con notas más altas en las presentaciones académicas: así lo refleja el nuevo sistema de inteligencia artificial para analizar la calidad de la comunicación no verbal que han desarrollado investigadores de la UB.

En la actualidad, la competencia en comunicación es una de las cualidades más relevantes, tanto en el aspecto profesional como en el personal. En el caso concreto de la universidad, hasta ahora la evaluación se centraba  en valorar el dominio de los contenidos y la capacidad para redactarlos; pero «con la entrada en el Espacio Europeo de Educación Superior se valoran mucho más las competencias relacionadas con el trabajo en equipo o la comunicación», tal como explica Sergio Escalera, investigador de la Facultad de Matemáticas de la UB y jefe del Grupo de Investigación de Análisis Automático del Comportamiento Humano (HuPBA) . Escalera, que también es miembro del Centro de Visión por Computador, ha liderado el desarrollo del nuevo sistema junto con los estudiantes de tercer ciclo de la UB Álvaro Cepero y Albert Clapés. El sistema propuesto, descrito en un artículo que ha publicado la revista AI Communications, es la evolución de uno anterior que desarrolló este grupo de investigadores con el apoyo del estudiante de doctorado Víctor Ponce.

 

«Nuestro programa muestra que los sistemas actuales de visión por computador e inteligencia artificial son viables para analizar automáticamente la calidad de la comunicación no verbal. El sistema puede utilizarse para analizar presentaciones, con propósitos de formación y evaluación, así como, por ejemplo, para entrevistas laborales. Por otro lado, actualmente no existen en el mercado herramientas implantadas para realizar análisis conductual», afirma Escalera.
 
En el marco de un proyecto que financia la UB dentro del Grupo de Innovación Docente Consolidado en Matemáticas e Informática (INDOMAIN) de la Facultad de Matemáticas, el sistema se ha aplicado al análisis de 54 presentaciones realizadas por estudiantes del grado de Ingeniería Informática de la UB y del máster interuniversitario de Inteligencia Artificial (UPC-UB-URV). Para ello  se ha utilizado el dispositivo Microsoft® KinectTM, que permite capturar imágenes, además de datos de profundidad y de audio.
 
Como explica Clapés, «en una primera etapa, y basándonos en la literatura sobre comunicación no verbal, determinamos una serie de indicadores para extraerlos a partir de los datos obtenidos, como el nivel de agitación o la posición de las manos respecto al cuerpo».
 
Así, por ejemplo, para estudiar si el orador mira a la audiencia, se analiza el número de fotogramas en los que mira al frente. Asimismo, a partir de la distancia de las manos respecto a los hombros opuestos, se puede determinar si tiene los brazos cruzados. El sistema también mide el nivel de agitación de quien realiza la presentación en función del movimiento de los brazos respecto al cuerpo y al ritmo de la voz.
 
«Este tipo de estudios están en auge, especialmente para aplicarlos a la formación en línea y la autoformación, una de las actuaciones prioritarias de la Unión Europea y que se incluye en proyectos del programa Horizonte 2020», explica Escalera.
Durante el estudio, las presentaciones fueron puntuadas paralelamente por tres evaluadores, entre los que se hallaban psicólogos de la UB pertenecientes al Grupo de Investigación e Innovación en Diseños Observacionales (GRID), que lidera la catedrática de la Facultad de Psicología, M.ª Teresa Anguera. La comparación entre los resultados de los evaluadores y los del sistema ha permitido constatar que este último posee una buena fiabilidad.
 

Análisis del comportamiento humano

El HuPBA trabaja en dos grandes líneas de investigación: una, de visión por computador, centrada en definir nuevos algoritmos computacionales que sean capaces de interpretar imágenes, y otra de aprendizaje automático, en la que a partir de un conjunto de datos —ya sean de imagen o de audio, o de cualquier otro tipo de información que se pueda representar numéricamente—, el sistema puede aprender y obtener estadísticas, predicciones o correlaciones.
 
Dentro de estas dos líneas, el equipo de la UB se ha especializado en el análisis de la conducta, con métodos muy transversales que le permiten trabajar en multitud de disciplinas. En seguridad, por ejemplo, para analizar si un comportamiento es de riesgo y hacer que el sistema inteligente lo reconozca como tal. O también en salud, ámbito en el que el equipo desarrolla sistemas de apoyo a la asistencia a la tercera edad (proyecto Care Repite) o sistemas de análisis postural automático para fisioterapia, rehabilitación y rendimiento deportivo (Sistema ADiBAS Posture de la spin-off Physicaltech), etc.
 
«Al final, lo que hacemos es utilizar el conocimiento de expertos en distintas disciplinas para programar el aprendizaje automático, para que el sistema sea una herramienta de apoyo que ayude al experto a tomar una decisión, pero nunca para que sea una herramienta de diagnóstico», concluye Escalera.
 
Referencia del artículo:

A. Cepero, A. Clapés, S. Escalera. «Automatic non-verbal communication skills analysis: a quantitative evaluation». AI Communications, volumen 28, número 1, enero de 2015. Doi: 10.3233/AIC-140617