OpenAI ha anunciado una actualización importante de ChatGPT: su modelo conversacional estrella ahora puede aprovechar el conjunto completo de conversaciones pasadas de un usuario para proporcionar respuestas más personalizadas y contextuales. Esta funcionalidad, reservada inicialmente para los suscriptores Plus y Pro fuera de Europa, marca un hito en la transformación de ChatGPT de una herramienta puntual a un asistente adaptativo.
De una memoria fragmentaria a una retención transversal
Hasta ahora, la memoria de ChatGPT estaba limitada a una sesión o a fragmentos de preferencias guardadas (estilo, temas recurrentes). Con esta nueva funcionalidad, la IA puede acceder al historial completo de intercambios, lo que abre el camino a una personalización más detallada, continuidad en los proyectos y la capacidad de establecer vínculos a largo plazo.
La promesa es fuerte. En un contexto profesional, un asistente con memoria prolongada podría no solo integrar los retos estratégicos recurrentes de un usuario, sino también seguir su calendario editorial, adaptar sus respuestas a sus preferencias argumentativas y tener en cuenta a sus interlocutores habituales. Para un uso personal, es la garantía de una continuidad: seguimiento de proyectos, preferencias estilísticas, objetivos a largo plazo. El usuario gana en eficiencia y fluidez.
Pero esta memoria aumentada plantea interrogantes. ¿Podría conducir a un asistente demasiado predecible? Al ajustarse a los hábitos del usuario, ¿no corre el riesgo de fijar la diversidad de puntos de vista y reforzar los sesgos cognitivos?
Cuestiones éticas y soberanía de los datos
Este conocimiento detallado del comportamiento del usuario también plantea cuestiones éticas. OpenAI permite a los usuarios mantener el control total sobre esta funcionalidad: pueden consultar, modificar o eliminar los recuerdos almacenados, o incluso desactivar completamente la memoria. A pesar de este control, ¿cuál es el grado de transparencia sobre los datos utilizados? Debido a las regulaciones europeas, en particular el RGPD, esta memoria a largo plazo no está disponible dentro de la UE.
Un ecosistema en transición
ChatGPT no es el único modelo que explora la memoria prolongada. Varios actores también desarrollan IA capaces de contextualización extendida:
- Claude (Anthropic) propone una memoria de tipo RAG (Retrieval Augmented Generation), combinando conversación y bases de conocimiento externas, con un fuerte énfasis en la ética y la alineación con el usuario;
- Gemini (Google DeepMind) integra elementos de contextualización transversal dentro del ecosistema de Google Workspace, prefigurando una forma de memoria distribuida pero centrada en los usos documentales;
- Meta trabaja en asistentes sociales con memoria relacional, integrados en plataformas sociales, donde la continuidad afectiva prima sobre el análisis racional;
- Proyectos como Pi (Inflection AI) o Character.AI apuestan por una memoria emocional, con el objetivo de construir una relación continua y atractiva con el usuario.
La convergencia hacia una memoria prolongada parece inevitable, pero las lógicas divergen: eficiencia profesional, fidelización emocional o integración ecosistémica. A largo plazo, el verdadero desafío quizás no sea la capacidad de recordar, sino la capacidad de elegir qué olvidar.
Hacia un nuevo equilibrio
Esta memoria aumentada podría ser el comienzo de una nueva relación con los asistentes conversacionales. Resta saber si el usuario está dispuesto a aceptar este nivel de "intimidad tecnológica" y qué compromisos sobre personalización, diversidad y privacidad está dispuesto a consentir.
Traducido de Vers une personnalisation accrue : si vous le désirez, ChatGPT peut désormais se souvenir de vos interactions
Para entender mejor
¿Qué es el RGPD y cómo afecta la implementación de memorias a largo plazo en IA como ChatGPT?
El RGPD (Reglamento General de Protección de Datos) es un marco legal de la UE que protege los datos personales de los individuos. Impone restricciones en la recopilación y procesamiento de datos, lo que limita la implementación de memorias a largo plazo en IAs como ChatGPT en Europa, ya que requiere un alto grado de transparencia y control del usuario sobre sus datos.