Nos Disparan desde el Campanario… Cómo la Inteligencia Artificial Manipula lo que Creemos: Impacto de la IA en Emociones, Sociedad y Democracia… por Dr. Fernando Manzano
Fuente: Asociación
Educar
Link de origen:
La inteligencia artificial (IA) se ha
convertido en una de las transformaciones tecnológicas más profundas de nuestra
época. En apenas una década pasó de ser un campo especializado de investigación
científica a una presencia ubicua en la vida cotidiana:
-
motores
de búsqueda,
-
redes
sociales,
-
plataformas
educativas,
-
sistemas
de salud,
-
bancos
y gobiernos la utilizan de manera constante.
El gran atractivo de estas
tecnologías radica en su capacidad para procesar volúmenes masivos de datos en
tiempo real y, a partir de allí, anticipar patrones de conducta,
recomendar decisiones o directamente reemplazar tareas humanas.
El entusiasmo que despierta la IA
convive, sin embargo, con un creciente conjunto de interrogantes. Ya no se
trata únicamente de discutir si las máquinas pueden realizar cálculos más
rápidos o diagnósticos más precisos, sino de analizar hasta qué punto
están empezando a influir sobre dimensiones profundamente humanas como las
emociones, la identidad o la libertad de expresión. Lo que está en juego no es
solo el uso de herramientas más eficientes, sino la posibilidad de que los
algoritmos participen en la definición de lo que sentimos y en la forma en que
expresamos nuestras opiniones en el espacio público.
Este artículo busca explorar ese
cruce complejo entre inteligencia artificial, emociones y libertad de
expresión. La hipótesis central es que el avance de sistemas capaces de
reconocer y manipular emociones abre un campo de oportunidades –por
ejemplo, en salud mental o en educación personalizada– pero al mismo
tiempo plantea riesgos significativos para la vida democrática. Para ello, se abordará
primero cómo la IA traduce lo emocional en datos y qué limitaciones implica
este proceso. Luego se analizará la forma en que los algoritmos configuran la
expresión en la esfera pública, premiando ciertas emociones e invisibilizando
otras. Más adelante se examinarán las tensiones éticas y sociales que derivan
de este proceso, para finalmente proponer una reflexión sobre los desafíos
inmediatos que enfrentan nuestras sociedades.
Inteligencia Artificial y el
reconocimiento de emociones
Desde los inicios de la psicología
moderna se ha discutido si las emociones son universales o si, por el
contrario, dependen de contextos culturales y sociales. La inteligencia
artificial entra en este debate con una lógica muy distinta: necesita traducir
lo complejo en categorías simples que puedan ser procesadas computacionalmente.
Así, muchas aplicaciones de IA trabajan con una lista reducida de
emociones básicas –alegría, tristeza, miedo, enojo, sorpresa, asco– a las
que asocian expresiones faciales, tonos de voz o patrones de conducta.
El resultado es un sistema capaz de
identificar “rasgos emocionales” en fotografías, audios o textos. Empresas de
recursos humanos aplican estas tecnologías en entrevistas laborales para
detectar supuestos niveles de entusiasmo o sinceridad en los candidatos.
Plataformas de atención al cliente las usan para medir la satisfacción en
tiempo real y ajustar la interacción según la reacción detectada. Incluso
existen programas que analizan la voz de los pacientes en consultas médicas remotas
con el objetivo de reconocer señales de ansiedad o depresión.
Sin embargo, conviene no perder de
vista las limitaciones de este enfoque:
En primer lugar, los algoritmos
no sienten ni comprenden emociones: simplemente procesan correlaciones
estadísticas entre datos y categorías predefinidas.
En segundo lugar, al entrenarse
con bases de datos construidas en contextos culturales específicos, tienden a
reproducir sesgos.
Una sonrisa puede ser interpretada
como cortesía en una sociedad y como burla en otra; una mirada fija puede
significar respeto o, por el contrario, desafío. Los algoritmos no distinguen
estas sutilezas y, por tanto, corren el riesgo de imponer interpretaciones
reduccionistas sobre realidades diversas.
A esto se agrega la ilusión de objetividad.
Cuando una máquina “detecta” tristeza o enojo, el resultado adquiere un aura de
neutralidad técnica que muchas veces no posee. En un proceso de selección
laboral, por ejemplo, la decisión de descartar a un candidato porque el
algoritmo supuso que estaba nervioso no refleja una verdad universal, sino la
aplicación de un modelo construido sobre supuestos culturales y
estadísticos. La consecuencia puede ser discriminatoria y, al mismo
tiempo, difícil de impugnar porque se ampara en la opacidad de sistemas
presentados como infalibles.
Recomendación para profundizar: Clase gratuita: «Inteligencia
Artificial: Desafíos Éticos en Salud y Educación»
Algoritmos, emociones y libertad de
expresión
El reconocimiento de emociones por
parte de la inteligencia artificial no se limita al plano individual, sino que
también configura la manera en que nos comunicamos colectivamente.
Las redes sociales son el ejemplo más
evidente. Sus algoritmos de recomendación priorizan contenidos capaces de
generar reacciones emocionales intensas:
-
indignación,
-
entusiasmo,
-
miedo,
-
sorpresa.
La lógica es sencilla: cuanto
mayor es la carga emocional de un contenido, más tiempo permanece el usuario
conectado, lo que se traduce en más publicidad y ganancias para la plataforma.
Este mecanismo tiene implicancias
directas sobre la libertad de expresión. Los mensajes que circulan con mayor
rapidez no necesariamente son los más veraces o los más racionales, sino
aquellos que despiertan emociones más fuertes. La consecuencia es una
distorsión del debate público, en la que las ideas moderadas o matizadas
pierden visibilidad frente a los extremos. En lugar de promover un intercambio
plural, los algoritmos refuerzan las cámaras de eco, encerrando a los usuarios
en burbujas donde solo reciben confirmación de sus creencias previas.
El impacto se extiende también a lo
que no vemos. Si un mensaje no provoca reacciones suficientes, puede
quedar sepultado en la invisibilidad algorítmica, aunque sea relevante para el
debate social. La censura ya no adopta la forma de una prohibición explícita,
sino de un silenciamiento indirecto mediante el control de la visibilidad. Se
trata de una censura invisible, pero con efectos muy reales sobre quiénes
pueden participar efectivamente en la esfera pública y quiénes quedan
relegados.
En este sentido, la gestión
algorítmica de la emoción no solo influye en qué contenidos circulan, sino
también en qué tipo de emociones se legitiman como socialmente aceptables. Los
mensajes que generan controversia pueden ser despriorizados bajo el argumento
de evitar “conflictos” o “discursos dañinos”, aunque en realidad lo que se
limita es la expresión de perspectivas críticas. El problema no es menor:
cuando se restringe el disenso bajo el manto de la seguridad o la armonía
digital, se debilitan los fundamentos mismos de la deliberación democrática.
Riesgos éticos y sociales
El avance de la inteligencia artificial
en el reconocimiento y manipulación de emociones, así como en la configuración
de la libertad de expresión, plantea un conjunto de riesgos que trascienden lo
técnico para instalarse en el corazón de lo ético y lo político:
Uno de los primeros riesgos es la
objetivización de las emociones. Al traducir experiencias humanas
complejas en datos cuantificables, se corre el peligro de reducir lo emocional
a un simple marcador numérico. Esta reducción no solo empobrece nuestra
comprensión de la vida afectiva, sino que además legitima decisiones
automatizadas que pueden afectar oportunidades laborales, acceso a servicios o
interacciones cotidianas.
Un segundo riesgo es la perpetuación
y amplificación de sesgos. Los sistemas de IA aprenden de datos históricos
y, en consecuencia, reproducen desigualdades preexistentes. Si las bases de
entrenamiento reflejan estereotipos de género, raciales o culturales, los
algoritmos tenderán a replicarlos. En el ámbito emocional, esto puede implicar
que ciertas expresiones sean interpretadas como negativas o inapropiadas en
función de parámetros sesgados, lo que afecta de manera desproporcionada a
grupos minoritarios.
La manipulación política constituye
otro riesgo central. Al aprovechar la capacidad de los algoritmos para identificar
emociones, es posible diseñar campañas de desinformación altamente segmentadas,
que buscan provocar miedo, ira o entusiasmo en sectores específicos de la
población. El terreno de la política se convierte así en un campo donde
las emociones, más que los argumentos, determinan los resultados. El peligro no
reside únicamente en la polarización, sino también en la erosión de la
confianza pública en la información y en las instituciones.
Asimismo, la normalización de la
vigilancia emocional merece atención. Cuando empresas o gobiernos pueden
monitorear expresiones faciales, tonos de voz o patrones de interacción, la
privacidad se ve amenazada de un modo sin precedentes. No se trata solo de
recolectar datos sobre lo que hacemos, sino también sobre lo que sentimos. Esta
intromisión en la esfera íntima puede derivar en prácticas de control social
sutiles, pero profundamente invasivas, que minan la autonomía individual.
Por último, existe un riesgo más
estructural: el debilitamiento de la democracia deliberativa. Si los
algoritmos privilegian el impacto emocional por encima de la calidad del
contenido, el espacio público se transforma en un espectáculo de estímulos
diseñados para captar atención más que en un foro de discusión de ideas. La
consecuencia es un deterioro de la capacidad ciudadana para dialogar, deliberar
y construir consensos, pilares fundamentales de toda democracia.
Conclusión
La intersección entre inteligencia
artificial, emociones y libertad de expresión abre un debate crucial para
nuestras sociedades.
La IA ofrece oportunidades
significativas:
-
puede
contribuir a la detección temprana de problemas de salud mental,
-
facilitar
interacciones personalizadas
-
y
enriquecer experiencias educativas.
Sin embargo, estos beneficios no
deben ocultar los riesgos asociados a la manipulación emocional, la
invisibilización de voces críticas y la consolidación de un modelo de
comunicación dominado por la lógica de la atención y el lucro.
El futuro no está predeterminado.
Dependerá de las decisiones que se tomen hoy en materia de regulación, ética y
diseño institucional. Los algoritmos no deben convertirse en árbitros
invisibles de lo que sentimos ni de lo que podemos decir. Por el contrario, es
imprescindible que gobiernos, empresas, académicos y ciudadanos construyan
marcos de acción que garanticen la transparencia, la diversidad y el respeto
por los derechos fundamentales.
La inteligencia artificial no es, en
sí misma, una amenaza para las emociones ni para la libertad de expresión. Lo
problemático es cómo se la utiliza y bajo qué valores se orienta su desarrollo.
Si se la concibe como una herramienta
al servicio de la sociedad, puede potenciar lo humano y ampliar nuestras
capacidades. Si se la deja librada al interés exclusivo de corporaciones
privadas, corre el riesgo de uniformar culturas, manipular sensibilidades y
restringir libertades.
El verdadero desafío consiste en
mantener el control humano sobre lo humano: asegurarnos de que las
personas sigan siendo las protagonistas de sus emociones y de sus palabras. La
innovación tecnológica debe estar acompañada por un compromiso ético que ponga
en el centro a la autonomía y la dignidad. Solo así la inteligencia artificial
podrá convertirse en un aliado y no en una amenaza para nuestras democracias.
Recomendación para profundizar: Inteligencia Artificial Generativa:
Una Aliada Emergente para la Lectura y la Escritura en la Era Digital
Para mantenerte al día con los
últimos avances científicos
Sumate a la comunidad de WhatsApp de AE, donde vas a
encontrar una fuente práctica y accesible de actualización académica en tu
celular.
Bibliografía:
Ballesteros Aguayo, Lucia y Ruiz del Olmo, Francisco Javier (2024).
Vídeos falsos y desinformación ante la IA: el deepfake como vehículo de la
posverdad [Fake videos and disinformation before the AI: deepfake as a
post-truth vehicle]. Revista de Ciencias de la Comunicación e Información,
29, 1-14.
https://doi.org/10.35742/rcci.2024.29.e294
Belli, S., & Florez, H. (2024). Inteligencia artificial y emociones. Revista Científica, 49(1).
https://revistas.udistrital.edu.co/index.php/revcie/article/view/22705/20723
Borrego-Ramírez, N., Ruiz-Cansino, M. L., & Borrego-Gómez, D. D.
(2023). La posverdad en América Latina y el Caribe: Una perspectiva
netnográfica de la agnogénesis. CienciaUAT, 18(1), 158-177.
https://doi.org/10.29059/cienciauat.v18i1.1716
Cantor Rosales, M. J., Gómez Ramírez, G. J., Zúniga Velásquez, M. N.,
Salinas Aguiriano, R. S., & Sánchez Maradiaga, L. A. (2025). Libertad de
expresión en las redes sociales: análisis de la censura automatizada por
inteligencia artificial. La Revista De Derecho, 45(1), 295–310. https://doi.org/10.5377/lrd.v45i1.19390
Enciso, I. G. (2024). Mito, ciencia, fake news y posverdad. En
Líneas Generales, (011), 87-98. https://doi.org/10.26439/en.lineas.generales2024.n011.7372
Kalpokas, I. (2024). Post-truth and information warfare in their
technological context. ACIG, 4, 2. https://doi.org/10.60097/ACIG/190407
Larrondo, M. E., & Grandi, N. M. (2021). Inteligencia Artificial,
algoritmos y libertad de expresión. Universitas-XXI, Revista de Ciencias
Sociales y Humanas, (34), 177-194. https://doi.org/10.17163/uni.n34.2021.08
Seo, D. H. (2024). Much Ado about Disinformation: A Critical Approach to
Coping with Information Manipulation in a Post-Truth World. Scientia
Militaria: South African Journal of Military Studies, 52(2), 105-120. https://doi.org/10.5787/52-2-1467
Zhakin, S. M., & Mukan, N. (2025). Digital Technologies and the
Reformatting of Values in the Post-Truth Era. Bulletin of the Karaganda
university History. Philosophy series, 11830(2), 241-247. https://doi.org/10.31489/2025hph2/241-247
https://orcid.org/0000-0002-1513-4891
Investigador del CONICET | Doctor en Demografía, Universidad Nacional de
Córdoba | Licenciado en Economía, Universidad de Buenos Aires | Licenciado en
Sociología, Universidad de Buenos Aires | Ha sido autor y coautor de más de 60
artículos científicos en revistas indexadas, 4 libros y más de 15 capítulos en
libros | Realiza divulgación en el canal de YouTube: “Datos y Ciencias
Sociales”.

Comentarios
Publicar un comentario