Conectados, pero más solos: el dilema de la IA emocional

Jueves 29 de mayo de 2025

Ingrid Motta
Ingrid Motta

Doctora en Comunicación y Pensamiento Estratégico. Dirige su empresa BrainGame Central. Consultoría en comunicación y mercadotecnia digital, especializada en tecnología y telecomunicaciones. Miembro del International Women’s Forum.

Puedes encontrarla en: LinkedIn y TikTok: @_imotta

Conectados, pero más solos: el dilema de la IA emocional

Durante décadas, muchas personas han recurrido al alcohol, la comida o el tabaco para lidiar con el estrés, la ansiedad o la soledad; ahora lo hacen con un chatbot.

Conectados, pero más solos: el dilema de la IA emocional.jpg

Hay gente, cada vez más, que comparte su angustia con un algoritmo.

/

Foto: Pixabay.

Hasta hace poco, hablar con una inteligencia artificial era una actividad funcional, utilizada principalmente con fines productivos: redactar correos, resumir textos, generar ideas para publicaciones o como herramienta adicional para tareas escolares o de oficina. Según datos de Filtered y Harvard Business Review, en 2025, todo cambió. La IA generativa ya no es un lujo exclusivo para nerds; ahora forma parte de la rutina diaria de millones de personas que la usan con un propósito distinto: sentirse mejor, organizar su vida, buscar compañía o incluso comprender sus emociones.

De acuerdo con la publicación, de 2024 a 2025, el uso de la IA generativa para funciones de “terapia” o “acompañamiento” se convirtió en su aplicación principal. A esta le siguen búsquedas como “encontrar propósito” y “organizar mi vida”. Aplicaciones como Replika o Woebot cuentan con millones de usuarios. En Character.AI, el bot más usado en 2024 fue un psicólogo virtual. Por increíble que parezca, hay gente, cada vez más, que comparte su angustia con un algoritmo. No porque crea que es humano, sino porque nadie más la escucha. Otra señal del cambio es el auge del planificador digital: usuarios emplean IA para estructurar su día, crear rutinas o fijar metas.

Existen diferentes factores que orillaron a este ajuste: primero, la IA se volvió accesible; cualquiera con conexión a internet puede utilizarla. Segundo, la pandemia dejó una huella emocional profunda: soledad, ansiedad y menor acceso a la terapia tradicional. Tercero, la tecnología avanzó: hoy la IA simula empatía, recuerda lo que le dices y responde con un tono afectivo que no juzga y no se cansa.

Te puede interesar: Justicia en campaña: jueces, votos y bots

Esto tiene un impacto real. Personas que antes no hablaban con nadie ahora encuentran en la IA una voz que escucha. Desde rutinas de ejercicio hasta planes de alimentación, tips para dormir mejor o incluso estrategias para dejar de procrastinar. Es como una agenda inteligente o un entrenador personal que, para muchos, ha sido la solución en su día a día.

El consuelo digital no es nuevo. En realidad, refleja viejos patrones con una nueva interfaz. Durante décadas, muchas personas han recurrido al alcohol, la comida o el tabaco para lidiar con el estrés, la ansiedad o la soledad; ahora lo hacen con un chatbot. En ambos casos, se trata de una forma de evasión emocional: una búsqueda de alivio inmediato sin enfrentar el malestar de raíz. Así como uno puede “ahogar las penas” en una copa, también puede refugiarse en una conversación con IA que simula empatía, escucha sin juicio y está disponible 24/7.

No es casualidad que psicólogos e investigadores estén empezando a estudiar el “uso problemático de chatbots” como un nuevo tipo de dependencia emocional. Estudios del MIT Media Lab y OpenAI advierten que, aunque útiles, estos sistemas pueden reforzar el aislamiento social y generar una falsa sensación de conexión. Análisis como los publicados en Frontiers in Psychology o por la Asociación Americana de Psicología (APA) señalan que este fenómeno guarda similitudes con otros mecanismos de afrontamiento negativos, y alertan sobre los riesgos de sustituir el acompañamiento humano por simulaciones afectivas sin profundidad real.

Este paralelismo es preocupante porque lo que empieza como compañía o desahogo puede convertirse en una forma de evitar el dolor en lugar de procesarlo. Y aunque una IA no causa daño físico como el alcohol o el cigarro, sí puede reforzar el aislamiento, desplazar relaciones humanas y debilitar habilidades emocionales esenciales. No se trata de satanizar la tecnología, sino de entender que incluso las soluciones más modernas pueden reciclar los mismos viejos atajos para no sentir.

Existen riesgos importantes: la dependencia sería el primero a destacarse. Si solo hablas con un bot, corres el riesgo de perder práctica en comunicarte con personas reales. Por otro lado, se empieza a vivir en una ilusión cuando la IA parece entenderte, pero no siente. No posee empatía genuina, solo la simula. Te devuelve tus palabras, editadas y amables. A veces, eso basta. A veces, no.

Hoy la línea entre el consuelo y la verdad es prácticamente imaginaria. Una IA que siempre responde puede ser una compañía valiosa, pero no siempre te dirá lo que necesitas; puede decirte lo que quieres escuchar, pero no lo que es correcto. No puede reemplazar a un profesional de la salud mental. No tiene responsabilidad. No enfrenta consecuencias; sin embargo, negar su utilidad en un mundo tan caótico sería ingenuo.

La IA está democratizando el acceso a cierto bienestar. No todos pueden pagar terapia, pero muchos pueden conversar con un bot. No todos tienen tiempo para planificar su vida, pero una IA puede ayudar. El reto es no perder de vista que sigue siendo una herramienta. Poderosa, sí, pero no humana.

La pandemia nos cambió radicalmente y nos hiperconectó para sobrevivir, pero nos detonó muchísimas cargas emocionales. La pregunta no es si la IA puede ser nuestra confidente. La verdadera pregunta es si sabremos usarla sin perder el control y sin dejar de estar conscientes de que le estamos contando nuestra vida y coordinando nuestra actividad con una máquina. Y, mucho más allá, lo preocupante es dejar de hablarnos a nosotros mismos.

Te puede interesar: Gates vs. Musk: el poder de decidir por el mundo

Los amigos imaginarios hoy no son invisibles, son de silicio y están presentes siempre que los necesitemos. Están programados para escucharnos, adaptarse, y no fallar, pero no tienen memoria emocional, ni historia, ni alma. Nos ofrecen comodidad, pero no conexión auténtica.

La IA generativa no es el enemigo, pero tampoco es la salvación. Es una herramienta tecnológica que refleja nuestras decisiones, prioridades y carencias. Puede ayudarnos a crecer y hacernos sentir menos solos, pero no puede reemplazar el valor de una conversación humana entre amigos, ni el silencio incómodo entre personas reales, ni la complejidad de emociones humanas más profundas.

Haz una pausa, observa a tu alrededor, habla con alguien de carne y hueso. Escucha, pregunta, conéctate. Si dejamos de hablarnos entre nosotros, o dejamos de hablarnos a nosotros mismos, no necesitaremos que las máquinas nos deshumanicen. Si estás usando IA para organizar tu vida, hablar de lo que sientes o buscar sentido, hazlo con conciencia. Pregúntate si lo estás haciendo por necesidad o por costumbre. Y, sobre todo, no dejes que una interfaz se convierta en tu único espejo.

PUBLICIDAD