(CNN) -— La nueva tecnología va tomando diferentes matices tanto que en breve podrás conocer tu nivel de coquetería, sentimentalismo y otros estados de ánimo.
La aplicación de reconocimiento de voz, que ya está disponible para preordenar, Beyond Verbal, puede decirte si coqueteas demasiado en solo 20 segundos. Un suéter que detecta la estimulación de la piel para codificar en colores tus sentimientos.
El método de más rápido desarrollo es el reconocimiento facial, liderado por Affectiva, un emprendimiento que se derivó del grupo Affective Computing del MIT hace tres años. En ese tiempo, la empresa acumuló una base de datos de más de 1.000 millones de expresiones faciales, que utiliza para entrenar algoritmos para reconocer y clasificar emociones básicas como felicidad o enojo, con más de un 90% de precisión.
Su tecnología insignia, Affdex, fue adoptada rápidamente por los anunciantes, quienes la utilizan para probar reacciones a sus campañas, y modificarlas como corresponde. Los socios de investigación de mercado, Millward Brown, estandarizaron su uso para clientes de la lista de las 500 empresas con mayores ingresos según Forbes, incluidos PepsiCo y Unilever.
“En el pasado esta tecnología estaba confinada a los laboratorios debido al costo alto y respuesta lenta”, explica Nick Langeveld, director ejecutivo de Affectiva. “Desciframos esos problemas; el costo es muy bajo y el servicio está en la web, y puede transformarse casi inmediatamente después de que los datos se colecten”.
El competidor, Emotient, también se especializa en el reconocimiento facial, pero su principal objetivo es el sector minorista. Su software está a prueba en las tiendas, al identificar 44 movimientos faciales para monitorear las reacciones emocionales del personal y los compradores, así como información demográfica incluida la edad y el género. Desde la satisfacción de los clientes hasta la moral de los empleados, los beneficios para los negocios son obvios, y Emotient afirman que los grandes socios minoristas planean hacer que el sistema sea permanente.
¿Cansado o estresado?
Un recorrido de mucha distancia en automóvil, puede ser solitario con solo un radio de compañía, y si el conductor está estresado o cansado se vuelve algo peligroso.
Un automóvil que pudiera entender esos sentimientos podría prevenir un accidente, al utilizar datos emocionales para señalar las advertencias. Los sensores podrían encajar en el volante y las manijas de la puerta para recoger las señales eléctricas de la piel. Mientras tanto, una cámara colocada en el parabrisas podría analizar las expresiones faciales.
Alternativamente, si el conductor muestra estrés, los sensores coordinados del auto podrían suavizar la luz y la música, o expandir los faros para compensar la pérdida de visión. Un estado de angustia podría transmitirse como una advertencia a otros conductores al cambiar el color de la pintura del vehículo.
Este automóvil empático es el objetivo de AutoEmotive, un proyecto de investigación del grupo Affective Computing en el laboratorio de medios del MIT en Estados Unidos, que se enfoca en explorar el potencial de las conexiones emocionales con máquinas. ‘AutoEmotive’ es su proyecto más reciente e integrado, después de esfuerzos exitosos para crear interfaces de todo desde sostenes hasta espejos.
Los investigadores creen que el concepto está destinado a ser popular, y ha generado interés de los fabricantes. “Ya probamos la mayoría de estos sensores”, dice Javier Rivera, investigador del MIT y líder del proyecto.
“El hardware requerido podría integrarse fácilmente en los automóviles, pues la mayoría de los autos tienen cámaras de todos modos; solo tienes más para capturar la fisiología. Podría realizarse discretamente”.
Y en la medicina
El médico Erik Viirre, un neurofisiólogo de San Diego, Estados Unidos, cree que también es tiempo de llevar esas herramientas a una práctica clínica.
“Aunque muchos medicamentos listan al riesgo de suicidio como un efecto secundario posible, creo que tenemos que utilizar biosensores, y hay un gran impulso dentro de la psiquiatría para traerlos. Los trastornos del pensamiento podrían ser detectados mucho más rápidamente y utilizados para determinar el tratamiento”.
Viirre estudió los dolores de cabeza ampliamente y encontró que los factores contribuyentes se desarrollan días antes de que ataquen, incluido el estado de ánimo. Afirma que un enfoque multisensorial que combina escaneos cerebrales, pruebas genéticas y detección de emociones podría mejorar dramáticamente el tratamiento.
Pero los sensores de emociones actualmente están limitados en su capacidad para diferenciar la expresión matizada, dice Tadas Baltrušaitis del Laboratorio Computacional de la Universidad de Cambridge en Reino Unido, quien publicó investigación sobre el tema.
“Es fácil entrenar a una computadora para reconocer emociones básicas, como miedo o enojo. Es más difícil reconocer estados emocionales más complejos, que también podrían ser culturalmente dependientes, como la confusión, interés y concentración”.
Pero hay posibilidad para un progreso rápido: “El campo es relativamente nuevo, y solo recientemente fue posible reconocer emociones en ambientes del mundo real con un grado de precisión. Los enfoques mejoran cada año, lo que lleva a que expresiones más sutiles sean reconocibles por máquinas”.
Baltrušaitis añade que los sensores combinados; como con ‘AutoEmotive’, que recogen señales de la piel, pulso, rostro, voz y más, podrían ser la clave para el progreso.
Cuidado compradores
En este clima postNSA (siglas en inglés de Agencia de Seguridad Nacional de Estados Unidos), las empresas están dispuestas a desviar las preocupaciones de privacidad. Affectiva y Emotiente son vehementes de que todos sus datos fueron recolectados con permiso de los sujetos, mientras que los últimos defienden su uso de software de reconocimiento en las tiendas al decir que no registra detalles personales.
Pero la tecnología es propensa al abuso, de acuerdo con el experto en sistemas futuristas y de información, Chris Dancy. “Creo que ya se utilizan variaciones en lugares como aeropuertos y nunca nos enteraríamos”, dice. “No puedo imaginarme que un sistema que haga lecturas de valor de mi mente para una empresa remota lo utilice para bien. Es un camino oscuro”.
Los productores afirman que controlan estrictamente el uso de sus sensores, pero la tecnología de reconocimiento facial prolifera. El supermercado británico, Tesco, podría enfrentar acciones legales por presentarlo en las tiendas sin permiso, mientras que la policía de San Diego emitió silenciosamente una versión telefónica.
Irónicamente, Dancy; uno de los principales defensores del movimiento Quantified Self (Yo Cuantificado), persigue muchas de las mismas percepciones en las emociones que los anunciantes, pero con medios alternativos y para objetivos personales.
Se mantiene conectado a sensores que miden el pulso, sueño REM, azúcar en la sangre y más, para hacer referencias cruzadas con la aportación ambiental para ver cómo se correlacionan los dos, y utiliza los resultados para obtener entendimiento e influencia sobre su estado mental.
El ‘hackeo del estado de ánimo’ se volvió una práctica popular entre los tecnológicamente curiosos, y dio lugar a aplicaciones exitosas. Los miembros de la Sección Yo Cuantificado de Londres, Inglaterra, crearon herramientas como Mood Scope y Mappiness que ayudan al usuario a emparejar su estado mental con eventos externos. Los hackers y fabricantes tendrán una herramienta mucho más poderosa en marzo, cuando el dispositivo de crowdfunding (financiamiento colectivo), OpenBCI, ponga a disposición ondas cerebrales EEG (electroencefalografía) para cualquier persona con una computadora por un precio de ganga.
Para toda la hostilidad popular hacia el uso corporativo de sensores de emociones, puede haber convergencia. Affectiva está dispuesta a comercializar demografías Quantified Self y una aplicación de Affdex para Android es inminente. A medida que se desarrolla el aprendizaje de las máquinas, e industrias diferentes se combinan para unir los puntos, todos podemos esperar compartir mucho más.