spot_imgspot_img

La explosiva mezcla de la IA y la economía de las emociones

Gabriel Levy

Recientemente trascendió que Delta Air Lines exploraba un modelo de inteligencia artificial capaz de ajustar precios de boletos aéreos según el motivo del viaje de cada pasajero.

La idea resultaba inquietante: un algoritmo podía cobrar más a quien volaba de urgencia por la muerte de un familiar que a quien viajaba de vacaciones. Lo que parecía una estrategia comercial eficiente desató un debate sobre privacidad, dignidad y los límites éticos del comercio digital.

El peligro concepto de la Economía de las emociones

Durante décadas, la inteligencia artificial fue imaginada como un mecanismo para liberar al ser humano de tareas repetitivas y abrir nuevas posibilidades creativas.

Marvin Minsky, pionero del MIT, escribió en los años setenta que las máquinas inteligentes permitirían “expandir la mente humana hacia territorios aún desconocidos”.

El optimismo de esa época marcó el inicio de un relato cargado de promesas de eficiencia y progreso.

Sin embargo, en paralelo a esta narrativa tecnológica emergió un concepto fundamental para comprender el presente: “la economía de las emociones”.

Este término, trabajado por autoras como Eva Illouz, describe la forma en que los sentimientos, las pasiones y las experiencias afectivas dejan de ser esferas íntimas para convertirse en recursos económicos: el amor, la tristeza, la ansiedad o el duelo son administrados, regulados y transformados en mercancía por un mercado que aprendió a capitalizar los estados de ánimo de las personas.

La combinación de esta economía de las emociones con la inteligencia artificial es explosiva.

Lo que comenzó con algoritmos de búsqueda y motores de recomendación pronto se transformó en sistemas capaces de rastrear emociones, preferencias y estados de vulnerabilidad con un nivel de precisión inédito.

En el ámbito empresarial, gigantes tecnológicos y aerolíneas como Delta Air Lines ya exploran la posibilidad de usar inteligencia artificial para fijar precios según el perfil emocional de los pasajeros.

No se trata únicamente de medir la disposición a pagar, sino de hurgar en los momentos más sensibles de la vida: un viajero que adquiría un pasaje para asistir a un funeral podía pagar más que alguien que compraba el mismo trayecto para unas vacaciones.

La tristeza o la urgencia se traducen en oportunidades de rentabilidad.

Este tipo de aplicaciones no son simples hipótesis futuristas.

Representan la forma en que los sistemas de IA aprenden a explotar nuestras debilidades humanas en beneficio del mercado, integrando las emociones como nuevas variables económicas.

Lo que alguna vez se presentó como neutralidad algorítmica hoy se transforma en un escenario cargado de dilemas éticos, donde la frontera entre eficiencia y abuso resulta cada vez más borrosa.

La economía de las emociones, potenciada por la inteligencia artificial, deja de ser un fenómeno cultural o académico para convertirse en el núcleo mismo de las prácticas comerciales contemporáneas: un laboratorio de manipulación donde el sufrimiento, la urgencia y la alegría son insumos calculados por máquinas que deciden cuánto vale nuestra experiencia humana.

La inteligencia artificial en la economía de las emociones

Eva Illouz, en La salvación del alma moderna (2010), explica que el capitalismo contemporáneo no solo se sostiene sobre bienes materiales, sino sobre la mercantilización de la experiencia emocional.

El dolor, la ansiedad o la alegría se convierten en variables que determinan cómo, cuándo y cuánto consumimos.

En este sentido, el caso de Delta Air Lines revela cómo la IA puede insertarse en la economía de las emociones para convertir el sufrimiento en un recurso de rentabilidad.

El algoritmo no observa simplemente datos fríos de oferta y demanda; interpreta la carga afectiva del momento para fijar un precio que maximice ingresos. L

o que antes era un pasaje aéreo ahora se transforma en un producto ajustado a la vulnerabilidad emocional del pasajero.

Otro autor clave, Antonio Damasio, en El error de Descartes (1994), sostiene que las emociones son el núcleo de toda toma de decisiones humanas.

Si las empresas saben esto y la IA es capaz de detectar esos estados emocionales mediante patrones de comportamiento digital, la mercantilización de la emoción deja de ser abstracta y se convierte en una operación concreta: aprovechar el miedo, la urgencia o la tristeza como insumos económicos.

El atractivo inicial de la IA como herramienta de personalización se convierte, poco a poco, en un mecanismo de control invisible.

En la economía de las emociones, el consumidor no solo adquiere un servicio; ofrece, sin saberlo, su intimidad afectiva como materia prima para la rentabilidad del mercado.

Los algoritmos como dispositivos de poder emocional

La pregunta central es si el abuso de la inteligencia artificial constituye una simple distorsión del mercado o una forma renovada de dominación emocional.

Byung-Chul Han, en Psicopolítica (2014), advierte que las tecnologías digitales no reprimen de manera directa, sino que moldean deseos y decisiones desde adentro, bajo la apariencia de libertad.

El usuario cree elegir, cuando en realidad responde a un condicionamiento afectivo cuidadosamente diseñado.

El problema se agrava en la medida en que las emociones se convierten en mercancía. En la economía emocional, un algoritmo que sabe que alguien perdió a un familiar no ve un drama humano, sino una oportunidad de ingreso.

Esa reducción instrumental de la experiencia subjetiva constituye una nueva forma de violencia simbólica.

No se trata de un caso aislado. El microtargeting político durante el Brexit o las elecciones estadounidenses de 2016 mostró cómo la manipulación emocional se volvió estrategia central: mensajes diseñados para generar miedo, indignación o euforia electoral según el perfil psicológico de cada votante.

La IA no solo predijo estados de ánimo, sino que los exacerbó para moldear decisiones colectivas.

El verdadero riesgo radica en la opacidad del sistema. A diferencia de la interacción humana, que puede ser cuestionada, el algoritmo se presenta como neutro, técnico, incontestable.

Así, las emociones dejan de ser patrimonio del individuo para convertirse en un terreno explotado por corporaciones bajo una lógica de poder algorítmico.

Los antecedentes de la economía emocional algorítmica

Los abusos derivados de la economía emocional mediada por IA ya dejaron huellas visibles en distintos sectores.

Uno de los casos más polémicos ocurrió en 2019, cuando se descubrió que Apple Card otorgaba límites de crédito significativamente más bajos a mujeres que a hombres con perfiles financieros similares.

El algoritmo no discriminaba solo por datos económicos, sino que incorporaba sesgos que replicaban desigualdades estructurales.

En términos de Illouz, el género se convertía en una variable emocional y simbólica traducida en desigualdad financiera.

Otro caso se dio en Países Bajos con el sistema SyRI, que buscaba detectar fraudes en beneficios sociales.

Allí, barrios enteros fueron clasificados como de “alto riesgo” en función de variables que mezclaban condición económica con prejuicios culturales.

El impacto fue devastador: comunidades estigmatizadas bajo un manto algorítmico que trataba la vulnerabilidad social como una amenaza.

En Estados Unidos, softwares predictivos como PredPol reforzaron la criminalización de comunidades afroamericanas y latinas.

El algoritmo, alimentado por datos históricos de arrestos, asignaba mayor vigilancia policial a estos barrios, generando un ciclo de miedo y desconfianza.

Aquí la emoción colectiva, el temor a la inseguridad, se instrumentalizaba como recurso político y operativo.

Incluso en el ámbito educativo, durante la pandemia, sistemas de vigilancia remota acusaban de fraude a estudiantes por simples movimientos de cabeza. La angustia y la ansiedad generadas se convirtieron en subproductos de un modelo de control basado en sospecha algorítmica.

Cada uno de estos casos revela cómo la economía emocional se despliega en múltiples niveles: el género, la pobreza, la seguridad, la educación. Todos se traducen en un mismo patrón: la captura de emociones por parte de sistemas que las transforman en oportunidades de control y de beneficio económico.

En conclusión, el uso abusivo de la inteligencia artificial no solo altera las dinámicas económicas tradicionales, sino que profundiza la lógica de la economía de las emociones.

Como señalaron Illouz y Damasio, nuestras decisiones nunca son puramente racionales, siempre atraviesan un entramado emocional.

Lo inquietante es que ahora estas emociones son detectadas, clasificadas y explotadas por algoritmos opacos que las convierten en mercancía.

El desafío contemporáneo no es solo regular precios o proteger datos, sino defender el derecho a que nuestras emociones no se transformen en un insumo más del mercado digital.

Referencias citadas

  1. Minsky, Marvin
    • The Society of Mind. Simon & Schuster, 1986.
      (Referencia al pionero del MIT que imaginó la expansión de la mente humana gracias a las máquinas inteligentes).
  2. Zuboff, Shoshana
    • The Age of Surveillance Capitalism. PublicAffairs, 2019.
      (Sobre cómo las tecnologías digitales convierten la conducta humana en materia prima para la economía de datos).
  3. Han, Byung-Chul
    • Psicopolítica: Neoliberalismo y nuevas técnicas de poder. Herder, 2014.
      (Sobre cómo las tecnologías digitales moldean deseos y emociones bajo la apariencia de libertad).
  4. Illouz, Eva
    • La salvación del alma moderna: Terapia, emociones y la cultura de la autoayuda. Katz Editores, 2010.
      (Base teórica del concepto de economía de las emociones y la mercantilización de los sentimientos.)
  5. Damasio, Antonio
    • Descartes’ Error: Emotion, Reason, and the Human Brain. Putnam, 1994.
      (Sobre la centralidad de las emociones en la toma de decisiones humanas.)
  1. Business Insider. “Delta’s AI pricing backlash shows the tightrope companies walk with AI adoption.” 6 de agosto de 2025.
  2. The Verge. “Delta is testing an AI-powered dynamic pricing model for flights.” 7 de agosto de 2025.
spot_img

Lo + Nuevo

spot_imgspot_img