miércoles, 28 de marzo de 2018

Neuromarketing y el reconocimiento oral de emociones


Sí, no pone facial en el título, pone oral. Hace tiempo que llegaron al mundo del neuromaketing múltiples herramientas para reconocimiento facial (ahora sí) de emociones. En muchas ocasiones desde este mismo blog he sostenido que esta herramienta es muy útil como apoyo en algunos trabajos, pero no debe ser la herramienta principal, mucho menos la única en ninguno. Al margen de que técnicamente un software concreto pueda ser más o menos preciso, el argumento de no basar el trabajo en esta utilidad no es la calidad técnica o tecnológica del software, sino de fundamento de la propia herramienta en sí. Bien esté basada en la clasificación de emociones de Ekman (la mayoría) o en cualquier otra, tengamos en cuenta que pese a que no hay duda de que algunas emociones “vienen de serie” en el ser humano, no está tan claro exactamente cuáles son ni de que siempre que aparezca una de ellas se exprese facialmente de la misma forma. Lo que sí parece estar algo más claro es lo contrario, hay determinadas expresiones que parecen correlacionarse con determinadas emociones.

La búsqueda de formas de medir emociones es algo que ocupa buena parte del interés de aquellos que estudian la conducta humana. De hecho, una parte en absoluto despreciable del neuromarketing tiene precisamente como objetivo determinar de forma objetiva qué siente el target, con lo que al gran grupo de los que estudian la conducta humana, se les unen los que la estudian cuando compran, en la búsqueda de métodos para medir emociones.

A todos nos ha pasado que por el tono de voz de alguna persona sabemos si está bien o no. Si ya hay (y no pocas) herramientas para el análisis de emociones a partir de textos fudamentalmente en redes sociales, ¿por qué no analizar emociones a partir de la voz?

Ese es precisamente el propósito de las herramientas de análisis oral de emociones, detectar qué emociones subyacen más que a determinadas expresiones, a determinadas formas de expresar algo en un momento concreto.

El problema que, de momento, plantea este tipo de utilidades es que en cuanto a la voz existe un patrón mucho menos claro incluso que en el reconocimiento facial, con lo que el desarrollo de estas herramientas se complica. Donde sí están empezando a tener una implantación importante es usando inteligencia artificial en lugares donde las mismas personas pasan mucho tiempo hablando, por ejemplo, en call centers. En dichos lugares el software va aprendiendo con el paso de los días sobre la voz de cada uno de los teleoperadores, aprendiendo a captar matices de su ritmo, tono de voz, etc. De esta forma, el reconocimiento oral de emociones se puede usar como herramienta complementaria en estos centros para hacer un análisis de las emociones expresadas tanto por los operadores como por aquellas personas que hacen uso habitual de ellos, como puede ser teléfonos de apoyo psicológico.

Sin duda un campo prometedor que a día de hoy es demasiado incipiente como para su uso se generalice y se convierta en herramienta de apoyo habitual, pero que avanza a buen ritmo.

No hay comentarios:

Publicar un comentario