Memoria Contextual: El Asistente que Nunca Olvida

Martes 3 de junio de 2025

Ingrid Motta
Ingrid Motta

Doctora en Comunicación y Pensamiento Estratégico. Dirige su empresa BrainGame Central. Consultoría en comunicación y mercadotecnia digital, especializada en tecnología y telecomunicaciones. Miembro del International Women’s Forum.

Puedes encontrarla en: LinkedIn y TikTok: @_imotta

Memoria Contextual: El Asistente que Nunca Olvida

Hay un riesgo que puede pasar casi desapercibido: el de la manipulación invisible que se esconde detrás de la personalización.

Memoria Contextual: El Asistente que Nunca Olvida.jpg

Donde hay memoria, hay poder.

/

Foto: Pixabay.

Hasta hace poco, cada vez que usabas Siri, Alexa o ChatGPT, todo lo que decías supuestamente lo olvidaba al instante en una especie de amnesia digital. Pero eso está cambiando, en una evolución de la programación de los modelos que podría redefinir cómo interactuamos con la inteligencia artificial, y cómo cada vez le vamos cediendo más control.

Imagina este escenario: lo que hoy le digas al asistente virtual de tu preferencia, lo memorizará, de modo que la siguiente vez que le pidas una acción, lo hará sin insistir en ofrecerte algo que no deseas. De forma casi automática, lo hará sin necesidad de repetir instrucciones o explicaciones. Esto ya no es ciencia ficción. Se llama “memoria contextual” y es el nuevo campo de batalla de las grandes tecnológicas.

OpenAI, Microsoft y Google están integrando esta capacidad en sus plataformas. ChatGPT, por ejemplo, ya tiene memoria activada por defecto para usuarios de pago. Google Gemini hace lo mismo, y Microsoft Copilot va más allá con su función “Recall”. Un sueño hecho realidad, un asistente que te conoce, te anticipa y te ayuda con precisión quirúrgica.

Este tipo de memoria ya ofrece beneficios tangibles para usuarios en diferentes contextos. Por ejemplo, ChatGPT puede recordar tus preferencias de estilo para redactar correos, lo que permite respuestas más alineadas a tu tono personal sin tener que repetir instrucciones. En el ámbito educativo, puede ayudarte a continuar una investigación donde la dejaste días antes, sin necesidad de volver a contextualizar. También en salud, algunos asistentes pueden recordar tus hábitos, recordarte tomar medicamentos y ajustar recomendaciones de bienestar basadas en tu historial. Estos usos muestran que, bien implementada, la memoria contextual puede facilitar la vida cotidiana y reducir la fricción en la interacción digital.

Donde hay memoria, hay poder. Y donde hay poder, hay riesgo. Investigaciones del Stanford Institute for Human-Centered Artificial Intelligence (HAI) han demostrado que los modelos de lenguaje de gran escala pueden perpetuar y amplificar sesgos existentes, reforzando nuestras creencias y prejuicios sin que lo notemos. Si tu asistente detecta que siempre lees noticias de una sola fuente, te ofrecerá más de lo mismo. Así, estos sistemas crean de manera paulatina tu perfil: sabrán quién eres, qué piensas, tus rutinas, hábitos, horarios e incluso tus estados emocionales. Ya no es solo lo que preguntas, sino cómo lo haces y cuándo lo haces.

Este nivel de aprendizaje y conocimiento del usuario no está exento de riesgos técnicos. Microsoft ya ha recibido críticas por “Recall”, una función que registra la actividad del usuario cada cinco segundos. Aunque se afirma que los datos se almacenan localmente y cifrados, la preocupación sobre la seguridad sigue latente: ¿qué tan blindado está frente a ciberataques? Y más allá de lo técnico, ¿tendremos derecho al olvido en un sistema que lo recuerda todo? Aquí no hablamos solo de privacidad, sino de identidad digital.

Hay otro riesgo que puede pasar casi desapercibido: el de la manipulación invisible que se esconde detrás de la personalización. Los algoritmos aprenderán, recordarán y almacenarán cada una de nuestras acciones y emociones; en consecuencia, podrán influir en nuestro comportamiento. De manera casi imperceptible, pueden bombardearte con publicidad dirigida. Hoy, lo que mencionas en conversaciones con amigos y tus búsquedas de contenido no aparece por casualidad, sino que está diseñado para aprovechar tus vulnerabilidades emocionales y empujarte hacia decisiones precipitadas. Lo inquietante es que todo esto ocurre de forma imperceptible, bajo la apariencia de asistencia útil, cuando en realidad puede representar una sofisticada forma de explotación, impulsada por datos y disfrazada de conveniencia.

Es importante reconocer que estas tecnologías ofrecen beneficios reales: eficiencia, personalización y una mejor experiencia digital. Sin embargo, la comodidad es tentadora, pero puede volverse dependencia. No se trata de rechazar la tecnología, sino de convivir con ella desde la conciencia. Estas herramientas pueden ser poderosas aliadas si establecemos límites claros.

Un mayor equilibrio entre los riesgos y las oportunidades permitiría construir un diálogo más completo, informando sin alarmar. Solo así podremos comprender las implicaciones reales de esta tecnología, sin caer en extremos ni ignorar sus beneficios potenciales. Europa ya empezó a legislar sobre este tema. En México y América Latina, apenas comienza la conversación. Pero debemos exigir transparencia, control de datos y derecho al olvido, ya que no se trata de los algoritmos, sino de nosotros.

Ya no somos simples usuarios. Somos personajes dentro de un sistema que nos recuerda, nos modela y nos responde como si nos conociera mejor que nosotros mismos. Y quizá, a veces, lo hace, más que nuestros seres más cercanos. Los asistentes con memoria ya son útiles, pero lo serán mucho más. La verdadera pregunta es si, cuando lo sean demasiado, aún sabremos proteger nuestra privacidad y nuestra autonomía.

La regulación será clave, pero también lo será nuestra capacidad de decidir qué dejamos que las máquinas recuerden.

PUBLICIDAD