Anthropic ha dado un paso importante en el desarrollo de Claude, su chatbot de inteligencia artificial generativa, incorporando una función que le permite recordar interacciones anteriores. Pero lo hace de forma particular: solo recuperará información del pasado si el usuario se lo pide expresamente.
Una memoria bajo demanda
La nueva función, disponible inicialmente para suscriptores de los planes Max, Team y Enterprise, está diseñada para que Claude pueda retomar conversaciones o proyectos interrumpidos sin que el usuario tenga que volver a explicar el contexto.
Por ejemplo, si has estado trabajando con Claude en la elaboración de un informe y decides continuar días después, bastará con escribir algo como: «Recórdame en qué estábamos». El asistente buscará en el historial de conversaciones, organizará la información por temas y ofrecerá un resumen claro junto con posibles siguientes pasos.
La diferencia frente a otros chatbots
Esta mejora coloca a Claude en una posición interesante frente a competidores como ChatGPT. Mientras que el asistente de OpenAI mantiene una memoria activa que registra detalles personales relevantes (como el nombre, la profesión o preferencias) para personalizar respuestas de forma automática, Claude solo «recuerda» cuando se lo ordena. Esto significa que no está recopilando y utilizando datos pasados de forma constante, lo que para algunos usuarios puede suponer un extra de tranquilidad en privacidad.
En ChatGPT, la memoria puede consultarse y gestionarse: el usuario puede pedirle que olvide ciertos datos o incluso reiniciar todo el perfil. En cambio, Claude actúa como una especie de archivista que solo abre el fichero cuando se lo solicitas.
Un equilibrio delicado: memoria vs. privacidad
En el sector de la IA conversacional, dotar a los modelos de memoria plantea un reto: cuánta información deben almacenar y durante cuánto tiempo. Si un chatbot recuerda demasiado, surgen preocupaciones sobre la privacidad e incluso riesgos psicológicos, como la dependencia emocional de un asistente que parece conocernos demasiado bien. Por el contrario, una memoria muy limitada puede volverlo menos útil frente a otros modelos más adaptativos.
Anthropic parece haber optado por un punto intermedio, donde el usuario mantiene el control total sobre cuándo y qué se recuerda.
Cómo activar o desactivar la función
La nueva memoria de Claude está activada por defecto en las cuentas que ya tienen acceso. Sin embargo, se puede deshabilitar siguiendo esta ruta:
- Ir a Configuración
- Entrar en Perfil
- Acceder a Preferencias
- Desactivar la opción «Buscar y referenciar chats»
Esta posibilidad de encender o apagar la memoria da flexibilidad a usuarios que alternan entre proyectos sensibles y consultas más casuales.
Usos prácticos en el día a día
La memoria selectiva de Claude puede ser especialmente útil en:
- Proyectos largos: escritura de informes, desarrollo de código, diseño de campañas de marketing.
- Seguimiento de aprendizaje: estudio de idiomas, preparación de exámenes, revisión de materiales.
- Organización personal: planificación de eventos, listas de tareas, seguimiento de metas.
Es como tener un cuaderno donde apuntas todo, pero que solo abres cuando lo necesitas, evitando que el asistente use esa información en contextos no deseados.
La carrera por la memoria en IA
Las grandes empresas de IA, como Anthropic y OpenAI, están invirtiendo cada vez más en capacidades de memoria extendida. En este sentido, la competencia no se limita a qué tanto recuerdan los modelos, sino también a cómo lo hacen y cuánto control ceden al usuario.
Algunos modelos, como Claude Sonnet, ya están ampliando sus ventanas de contexto a un millón de tokens, lo que permite mantener coherencia en interacciones muy extensas sin necesidad de recurrir a un almacenamiento permanente de datos.
Una herramienta con potencial y precaución
Aunque la memoria bajo demanda de Claude abre nuevas posibilidades para la productividad y la gestión de proyectos, también recuerda la importancia de gestionar qué datos compartimos con los chatbots. Incluso si la información no se guarda de forma permanente, cualquier interacción implica cierto tratamiento de datos.
En definitiva, la propuesta de Anthropic combina comodidad y control, lo que podría convertirla en una opción atractiva para quienes quieren beneficiarse de la personalización sin sacrificar privacidad.