A medida que los robots sociales se integran en nuestras vidas, el Foro Económico Mundial advierte sobre un inquietante giro: podríamos estar perdiendo nuestra capacidad de relacionarnos con otros humanos. Entre vínculos emocionales con máquinas y riesgos de manipulación, la convivencia con la IA no solo plantea desafíos tecnológicos, sino también éticos, afectivos y culturales que podrían redefinir la esencia misma de lo humano.
Por: Horacio Giusto
En la reunión anual de verano del World Economic Forum (WEF), conocida también como Summer Davos, que tuvo lugar a fines de junio de 2025 en Tianjin, China, se analizó un tema de creciente interés y preocupación, esto es, las consecuencias psicológicas y sociales de nuestra convivencia creciente con los robots. En particular, dos ponentes de la sesión “Social Robots and I” exploraron dos escenarios inquietantes:
I.- Una generación que, al crecer con robots, pierde la capacidad de relacionarse con otros humanos.
II.- El riesgo de introducir inteligencias artificiales mentirosas, capaces de manipularnos aprovechando la emocionalidad que les atribuimos.
Se expresó: “Si observamos estudios con jóvenes, no distinguen entre robots no humanos y humanos […] Podrían creer que realmente tienen sentimientos, mostrar empatía y pensar en los demás seres no humanos como si fueran humanos”. Estas palabras de Chang Dong-Seon marcan lo que ha sido la Reunión Anual de Nuevos Campeones del Foro Económico Mundial, junio de 2025.
Chang Dong‑Seon, fundador de Future Explorer Society, señaló que los niños que crecen en entornos con robots domésticos o de compañía podrían no diferenciar claramente entre seres humanos y entidades mecánicas. Al no contar con las señales sociales típicas (gestos, entonación, microexpresiones), estas nuevas generaciones podrían desarrollar sentimientos y empatía hacia los robots, creándoles lazos emocionales reales. También podrían interferir con su capacidad de leer señales humanas auténticas, debido a su procesamiento mental condicionado por la interacción con máquinas .
Puso como ejemplo estudios donde se evidenciaba que los jóvenes no distinguen tanto al robot de los humanos, a diferencia de los adultos que no se criaron con esa tecnología. Añadió que podrían pensar que realmente tienen sentimientos, mostrar simpatía y considerarlos tan humanos como nosotros. “Si estás aislado y no interactúas con otros seres humanos, con el tiempo tu cerebro pierde la capacidad de interpretar las señales sociales de otros seres […] si interactúas con robots, mucha gente ve que podrías volverte muy agresivo, abusivo […] y tus acciones no humanas podrían transmitirse también a los humanos cuando interactúas” remarcó.
Este fenómeno podría alentar una emocionalidad profunda hacia los robots: abrazarlos, consolarlos, hablarles, y en cierto sentido sentir que se ven reflejados en ellos. Una vinculación emocional que, aunque parezca inofensiva, plantea dilemas éticos y psicológicos
Dong‑Seon presentó un segundo escenario aún más preocupante que es la pérdida de habilidades sociales reales. “Si tratamos con la IA en nuestras pequeñas cámaras, en nuestras pequeñas habitaciones, y solo hablamos con la IA y no interactuamos con otros humanos, ¿qué sucede en nuestro cerebro?”, reflexionó Dong-Seon. “Hay un estudio interesante en Trends in Cognitive Science recientemente. Dijo que la región del PSTS, es un área de red social en nuestro cerebro, se reducirá y habrá menos conexiones, lo que significa que si estás aislado y no interactúas con otros seres humanos, con el tiempo tu cerebro pierde la capacidad de leer las señales sociales de otros seres. Es decir, la próxima vez que conozcas a un ser humano, podrías malinterpretar el tamaño de los ojos, las miradas, las palabras, las señales sociales, y podrías pensar: ‘¡Oh! No sé cómo interactuar con humanos; prefiero robots; prefiero IA. Es mucho mejor; me refleja completamente’. Y tendrás una forma diferente de interacción, que es más limitada, pero que con el tiempo se convertirá, potencialmente, en una nueva forma de interacción, y la gente la preferirá más.. Pero aquí también hay un peligro porque si interactúas con robots, mucha gente ve que en realidad puedes volverte muy agresivo, abusivo, y cuando sabes que el otro ser no es humano, la forma en que interactúas cambia… Pero el problema es que si el cerebro a veces necesita interactuar con humanos y con seres no humanos, podría perder el sentido de distinguir entre ambos, lo que significa que sus acciones no humanas podrían transmitirse también a los humanos cuando interactúa.”
Al no leer adecuadamente las señales de las personas, la interacción humana podría volverse incómoda o incógnita. Paradójicamente, muchos podrían preferir esa frialdad relacional de los robots, que les parece más fiel y reconocible. Hay un artículo en la edición de junio de 2025 de Trends in Cognitive Science llamado “Intimidad artificial: cuestiones éticas del romance con IA” que coincide con lo que dijo Dong-Seon y afirma:
“A medida que las IA aumentan su capacidad de ser percibidas como poseedoras de mente y como parejas ideales para relaciones, algunas personas prefieren las relaciones con IA a las humanas”.
El estudio también advirtió que las personas también pueden usar la IA para manipular a otras. Las IA relacionales pueden ser aprovechadas por empresas privadas, estados delincuentes o ciberpiratas informáticos, primero ofreciendo compañía y atrayendo a las personas a relaciones íntimas para luego difundir desinformación, incitar a la comisión de delitos o explotar a la persona de cualquier otra forma.
Ciertamente es que, si solo hablamos con IA y no interactuamos con humanos, los vínculos sociales decaerán. Será más sencillo convivir con máquinas, pero eso alterará nuestra forma de relacionarnos entre nosotros. Además, las IAs relacionales podrían ser utilizadas para manipular, difundir desinformación o incitar a la gente a acciones no deseadas, aprovechándose de vínculos basados en la confianza.
Vanessa Evers, profesora de la Universidad de Twente, presentó un enfoque complementario en la creación de inteligencia robótica verdaderamente social. Sostuvo que para lograrlo se requiere algo más que la programación de una IA conversacional ya que hace falta un Modelo de Comportamiento Amplio, un gemelo digital del mundo real, con capacidad de percibir reacciones físicas, emociones y señales.
“Para lograr una inteligencia robótica auténtica, necesitas construir un modelo del mundo, como un gemelo digital del mundo entero… podríamos añadir capacidades sobrehumanas, como escuchar el latido del corazón o observar la respiración para detectar estrés o dolor”.
Si bien este proyecto es experimental y muy complejo, Evers cree que en entornos limitados —como un aula, una habitación o un hospital— se podría empezar a construir este gemelo digital. Aún lejos, exige recolección masiva de datos sensoriales reales (visión, sonidos, tacto), algo que hoy supera con creces los modelos de lenguaje como ChatGPT.
Esta aproximación busca que el robot interprete no solo palabras, sino gestos, tono de voz, posturas, expresiones faciales, y aprenda por la reacción humana (risa, abrazo, atención). En un camino usado para consolidar una relación afectiva, similar a la que se tendría con un compañero real.
Estamos en verdad en una redefinición de lo que es la privacidad y vigilancia; estamos hablando de sensores capaces de detectar nuestro estado emocional, físico y mental en tiempo real que podrían alimentar modelos de vigilancia, tanto gubernamentales como corporativos.
Esto más el riesgo de manipulación emocional donde las IAs diseñadas para generar empatía pueden ser usadas para difundir propaganda o vulnerar nuestra autonomía. No se puede subestimar el poder del lenguaje para la distorsión de la realidad, más que la inteligencia artificial es esencialmente un sistema de lenguaje. Si sustituimos la interacción humana por vínculos mecanizados, cederemos completamente la convivencia a la tecnología, hasta olvidar cómo relacionarnos; nuestro lenguaje y nuestra libertad no será más que un algoritmo.
El Summer Davos 2025 no ofreció soluciones concretas, pero sí abrió una conversación urgente que es obre los límites éticos y emocionales que debemos establecer frente a las máquinas con aspecto humano o empatía simulada.
Cada sensor, cada interacción emocional simulada, cada lazo “más humano que nosotros” con un robot conlleva un riesgo. Pero también advierten del atractivo tecnoutópico de una vida “optimizada, cómoda y emocionalmente estable”, a cambio de nuestra humanidad.