En los últimos años, el Cómputo Afectivo (CA) ha ganado relevancia al plantear la posibilidad de que las computadoras reconozcan y respondan a las emociones humanas. Este tema resulta importante porque muchas personas interactúan diariamente con tecnologías que parecen “entender” cómo se sienten, lo que genera preguntas sobre si las máquinas pueden realmente experimentar emociones o solo simular su comprensión. En este artículo se aborda el cómputo afectivo desde una perspectiva de divulgación, explicando su origen, su funcionamiento básico y los tipos de señales emocionales que pueden analizarse, tanto visibles como derivadas de la interacción con dispositivos. Se presentan ejemplos de aplicaciones actuales en videojuegos, dispositivos móviles, educación, marketing y medicina, mostrando cómo estas tecnologías ya forman parte de la vida cotidiana. Finalmente, se reflexiona sobre lo que esto significa para las personas y sobre los retos éticos y tecnológicos que acompañan el futuro del cómputo afectivo, invitando al lector a cuestionar cómo será la relación entre humanos y tecnología en los próximos años.
In recent years, Affective Computing (AC) has gained relevance by raising the possibility of computers recognizing and responding to human emotions. This topic is important because many people interact daily with technologies that seem to “understand” how they feel, leading to questions about whether machines can truly experience emotions or merely simulate their comprehension. This article addresses affective computing from an accessible perspective, explaining its origins, basic operation, and the types of emotional signals that can be analyzed, both those that are visible and those derived from interaction with devices. Examples of current applications in video games, mobile devices, education, marketing, and medicine are presented, demonstrating how these technologies are already part of everyday life. Finally, the article reflects on what this means for people and the ethical and technological challenges that accompany the future of affective computing, inviting the reader to consider what the relationship between humans and technology will look like in the coming years.
¿Alguna vez has sentido que una aplicación “te entiende” cuando escribes un mensaje triste o molesto? Esa sensación no es casualidad: detrás existe tecnología diseñada para interpretar emociones humanas.
Las computadoras tradicionalmente solo procesaban números y texto. Hoy, gracias a la inteligencia artificial, parecen reaccionar a emociones humanas. Pero ¿Puede una computadora realmente sentir emociones como los humanos o solo simula comprenderlas? Marvin Minsky (1986) escribió en La Sociedad de la Mente: “La cuestión no es si las máquinas inteligentes pueden tener emociones, sino si las máquinas pueden ser inteligentes sin ellas” [1].
Actualmente se reconoce que las emociones influyen en la forma en que las personas piensan, toman decisiones y se comunican, y que tanto el exceso como la ausencia de estas pueden afectar estos procesos [2]. Por esta razón, el cómputo afectivo se vuelve relevante, ya que no busca que las computadoras sientan emociones, sino que puedan reconocerlas para interactuar con los usuarios de manera más cercana, comprensible y funcional, especialmente en contextos donde la experiencia humana es clave.
Durante décadas, las computadoras fueron herramientas puramente lógicas donde los sistemas solo reaccionaban a comandos rígidos, sin considerar el estado emocional del usuario. El interés por integrar emociones surge a finales del siglo XX con estudios sobre interacción humano-computadora, siendo Rosalind Picard [2] la precursora de este tema. El cómputo afectivo no surgió de la noche a la mañana. En sus inicios, los investigadores comenzaron a explorar cómo las computadoras podían reconocer emociones básicas a partir de expresiones faciales o del tono de la voz. Con el paso del tiempo y el avance de la inteligencia artificial, estos sistemas se volvieron más precisos, al aprender directamente de grandes cantidades de datos en lugar de seguir reglas fijas.
El término cómputo afectivo fue formalizado en la década de 1990, cuando se propuso que las computadoras podían reconocer y responder a emociones humanas como parte de su funcionamiento inteligente [2]. Sin embargo, fue el avance del aprendizaje automático y de las redes neuronales lo que marcó un punto de inflexión en el estudio de las emociones desde un contexto computacional, al permitir el análisis de grandes volúmenes de datos emocionales de forma más precisa. Este cambio tecnológico dio lugar a la formalización del cómputo afectivo como un campo de investigación, apoyándose en trabajos fundamentales que plantearon la importancia de integrar las emociones en los sistemas inteligentes y en modelos psicológicos que permitieron representar los estados emocionales de manera estructurada [1], [2], [3].
Hoy en día, el CA combina diferentes fuentes de información para interpretar mejor el estado emocional de las personas, permitiendo una evolución donde los sistemas son capaces no solo de reconocer emociones, sino de responder de forma empática.
Cronológicamente, esta evolución puede verse con sucesos clave en la historia del cómputo afectivo. En 1995, Rosalind Picard propuso por primera vez que las computadoras podían reconocer emociones humanas. Poco después, en 1998, el proyecto IBM BlueEyes mostró de forma experimental que era posible detectar estados emocionales mediante señales fisiológicas. Durante los primeros años del 2000 surgieron aplicaciones comerciales, especialmente en videojuegos y publicidad. Más adelante, en la década de 2010, estas tecnologías se extendieron al ámbito de la salud y, actualmente, en la década de 2020, se aplican en entornos más amplios como las ciudades inteligentes [4].
El Cómputo Afectivo, “es la computación que se relaciona con, surge de o influye deliberadamente en las emociones” [2], la cual une la informática con la psicología y la ciencia cognitiva para que las computadoras puedan entender y responder a las emociones humanas en áreas como las redes sociales, la salud, las finanzas y la educación [5].
Una computadora con capacidades afectivas aún requiere del razonamiento lógico para tener la habilidad de identificar las emociones de sus usuarios y saber “reaccionar” de manera adecuada, especialmente cuando detecta estados como frustración, miedo o desagrado que pueden corregirse o mejorar mediante su interacción [2].
Tus estados emocionales se expresan mediante señales visibles y/o respuestas fisiológicas menos evidentes (ver Figura 1). Esta diferencia es fundamental en el CA, ya que los sistemas de CA utilizan ambos tipos de señales como datos de entrada para identificar estados emocionales [2].
Además de las señales visibles, tus emociones también pueden inferirse a partir de la forma en que interactúas con una computadora. Por ejemplo, en la escritura de texto, aspectos como la velocidad, el uso de mayúsculas, signos de puntuación o ciertas palabras pueden asociarse con estados emocionales. De manera similar, cuando usas el teclado, se pueden revelar patrones como pausas prolongadas, errores frecuentes o cambios en el ritmo de escritura; de igual forma cuando utilizas el ratón puedes mostrar movimientos bruscos, trayectorias irregulares o clics repetitivos. Aunque estas señales no indican emociones de forma directa, su análisis conjunto permite a los sistemas de CA identificar comportamientos asociados a estados como estrés, cansancio o frustración.
Para reconocer y responder a las emociones, el CA sigue un proceso estructurado. Primero, el sistema recibe información de las personas (como texto, voz o expresiones), la cual analiza pasando por una etapa de preprocesamiento, donde se realiza la limpieza y preparación de la información. Posteriormente, un modelo de IA analiza el contenido para identificar patrones emocionales y determinar la emoción detectada. Finalmente, con base en este resultado, el sistema genera una respuesta del sistema orientada a mejorar la interacción con el usuario. En la Figura 2 se presenta un ejemplo sencillo de este proceso aplicado al análisis de texto, mostrando paso a paso cómo un sistema puede detectar emociones como cansancio o tristeza.
El CA no busca crear máquinas con sentimientos (Figura 3), sino sistemas capaces de responder de manera más sensible al contexto humano. Sin embargo, ante los rápidos avances de la inteligencia artificial, surge una pregunta inevitable: ¿seguirá siendo esta la frontera definitiva entre humanos y máquinas, o algún día la tecnología será capaz de ir más allá de la simple simulación emocional?
Puede que las computadoras no sientan emociones como WALL-E o EVE, pero eso no las deja fuera del juego. Hoy ya existen sistemas que pueden detectar cuando una persona está molesta, cansada o frustrada y ajustan su respuesta para comunicarse mejor. Sin necesidad de sentir, la tecnología empieza a comportarse de una forma más cercana y comprensible.
Ejemplos claros de esto son tecnologías bastante conocidas y utilizadas. Los videojuegos, sistemas que pueden reaccionar cuando el jugador se frustra o se aburre, ajustando la dificultad o el ritmo del juego para que la experiencia sea más entretenida. Algo parecido ocurre en los teléfonos celulares, donde algunas aplicaciones y asistentes virtuales adaptan notificaciones o respuestas según el uso y el estado del usuario. Sin sentir emociones, estas tecnologías reconocen patrones de comportamiento y reaccionan de manera más cercana, demostrando que el cómputo afectivo ya forma parte de lo que tú ya usas en la vida cotidiana.
Además del entretenimiento y los dispositivos móviles, el CA tiene aplicaciones en distintos ámbitos. En educación, puede ayudar a identificar cuándo un estudiante está confundido, cansado o desmotivado, permitiendo adaptar explicaciones o actividades de aprendizaje. En marketing, se utiliza para analizar reacciones emocionales ante anuncios, productos o experiencias digitales, con el fin de mejorar la forma en que se comunican los mensajes. En medicina, estas tecnologías apoyan el monitoreo del estado emocional de los pacientes, especialmente en contextos de bienestar, rehabilitación o salud mental, facilitando una atención más personalizada. En todos los casos, el objetivo no es que la tecnología sienta emociones, sino que pueda responder de manera más adecuada a las personas (ver Figura 4).
El CA combinado con entornos como la realidad aumentada, la realidad virtual o el metaverso, los avatares se vuelven aún más relevantes, ya que funcionan como el “rostro” con el que el usuario interactúa. Aunque estos sistemas no sientan emociones, la combinación de avatares, entornos inmersivos y respuestas adaptadas puede generar una sensación de cercanía y empatía. Esta experiencia hace que te puedas identificar más fácilmente con la tecnología, y te involucres emocionalmente y percibas la interacción como más natural, mostrando cómo el cómputo afectivo también se apoya en la forma en que los usuarios viven y sienten la interacción, no solo en lo que la máquina detecta.
Aunque el CA suene a algo del futuro, en realidad ya forma parte de tu vida cotidiana. Por ejemplo, cuando una aplicación te sugiere hacer una pausa después de mucho tiempo frente a la pantalla, cuando un asistente digital repite una instrucción de forma más clara después de varios errores, o cuando una plataforma educativa baja el ritmo porque detecta que te estás confundiendo. Incluso en el celular, algunas aplicaciones ajustan notificaciones o recomendaciones según cómo lo usas a lo largo del día. Todo esto busca que la tecnología se adapte un poco más a ti y no al revés. Sin embargo, también es importante recordar que estas herramientas no sienten emociones (por el momento), solo las reconocen, por lo que su uso debe ser consciente y respetuoso, cuidando siempre la privacidad y el bienestar personal.
En el futuro cercano, el cómputo afectivo podría integrarse en tecnologías cada vez más presentes en tu vida diaria. Dispositivos como lentes inteligentes, asistentes virtuales con avatares, entornos de realidad virtual o plataformas educativas digitales podrían adaptar su comportamiento según cómo se sienta la persona que los utiliza. Un sistema podría notar señales de cansancio y sugerir una pausa, cambiar la forma en que presenta la información o ajustar la interacción para evitar frustración. Más que crear máquinas que sientan emociones, el avance tecnológico apunta a desarrollar sistemas que te comprendan mejor y acompañen sus actividades de manera más cercana. El verdadero desafío será usar estas tecnologías con responsabilidad, manteniendo siempre el equilibrio entre innovación, privacidad y bienestar humano. El reto será diseñar sistemas que comprendan mejor a las personas y contribuyan a una relación más equilibrada entre humanos y tecnología.
Finalmente, cuando la tecnología aprenda a leernos mejor, ¿estaremos preparados para convivir con sistemas que comprendan nuestras emociones sin sentirlas?