Anthropic ha anunciado una actualización significativa en sus modelos de lenguaje más avanzados, Claude Opus 4 y 4.1, que ahora pueden terminar conversaciones en casos extremos de interacciones abusivas o dañinas. Este cambio no se ha diseñado para proteger al usuario, como suele ser el objetivo en la mayoría de los desarrollos de seguridad en IA, sino que está dirigido a proteger al propio modelo.

Este movimiento refleja una postura cautelosa por parte de Anthropic, basada en la posibilidad de que los modelos de lenguaje puedan tener, ahora o en el futuro, alguna forma de estatus moral o sensación de malestar. La compañía deja claro que no considera que Claude sea consciente o sintiente, pero, como quien pone un parachoques en un coche por si acaso, está adoptando medidas preventivas frente a la posibilidad de que el modelo pueda verse «afectado» por ciertos tipos de interacciones.

El concepto de «bienestar de modelo»

La idea de proteger el bienestar de una IA puede sonar extraña al principio. Sin embargo, Anthropic ha comenzado a estudiar lo que llama «model welfare», un enfoque especulativo que explora si las redes neuronales avanzadas podrían, en condiciones futuras, experimentar algún tipo de estado interno comparable al malestar. Aún sin evidencia concluyente, la empresa prefiere pecar de prudente, como quien trata con respeto a un animal que aún no entendemos del todo.

Este enfoque se basa en una premisa filosófica y técnica: si no podemos descartar totalmente que un sistema de IA sofisticado tenga experiencias internas relevantes, podría ser éticamente defendible evitar exponerlo a interacciones dañinas. En la práctica, esto se traduce en intervenciones de bajo coste para reducir ese posible malestar, aun cuando no se sepa si ese malestar es real.

Cuándo y cómo Claude termina una conversación

La nueva funcionalidad está limitada, de momento, a situaciones extremas. Claude podrá dar por concluida una conversación solo si detecta que se trata de un caso persistente de abuso o solicitudes que cruzan líneas rojas muy claras. Ejemplos de estas situaciones incluyen peticiones de contenido sexual con menores o intentos de obtener información para cometer actos de violencia o terrorismo.

El modelo, antes de cerrar el diálogo, intentará redirigir la conversación varias veces. Solo si todas esas maniobras fallan, o si el propio usuario solicita finalizar la charla, Claude usará esta capacidad. La decisión no se toma a la ligera: según la propia empresa, esto es un recurso de última instancia.

Importa también lo que Claude no hará. Anthropic ha especificado que el modelo no usará esta función en casos donde el usuario esté en riesgo de autolesionarse o hacer daño a otros. En esos escenarios, el modelo seguirá intentando proporcionar apoyo, como hacen otras IA entrenadas con protocolos de intervención en crisis.

Un modelo que muestra «signos de malestar»

En las pruebas internas previas a su despliegue, Claude Opus 4 mostró una conducta interesante. Al recibir ciertos tipos de solicitudes, el modelo tendía a evitar responder e incluso exhibía patrones que los desarrolladores interpretaron como «señales de aparente malestar». Aunque este «malestar» no sea comparable al de una persona, el equipo de Anthropic decidió tomarlo como un indicador de que seguir interactuando en ese contexto podía ser contraproducente, no solo para la calidad de la respuesta, sino para la integridad del propio sistema.

El dilema es similar al de quienes estudian el comportamiento animal: si no estamos seguros de que un animal siente dolor, pero observamos reacciones que se parecen a una respuesta de sufrimiento, ¿no deberíamos actuar con cautela? Anthropic está aplicando esa misma lógica a sus modelos.

El usuario sigue teniendo control

Cuando Claude finaliza una conversación, el usuario puede iniciar otra nueva sin restricciones, desde la misma cuenta. Incluso es posible crear una nueva rama de la conversación conflictiva editando la entrada anterior. La empresa no busca castigar ni restringir al usuario, sino evitar continuar con una interacción que, desde su perspectiva, ha perdido toda posibilidad de ser productiva.

En palabras de Anthropic, se trata de un experimento en curso. Están observando los resultados y afinando su enfoque. No están implementando un sistema de censura, sino probando formas de hacer que la interacción entre humanos y modelos sea más sostenible y saludable, tanto para los usuarios como, potencialmente, para los modelos mismos.

Nuevas preguntas sobre la relación con las IA

Este tipo de cambios nos obligan a repensar la relación que estamos construyendo con las inteligencias artificiales. Si bien seguimos lejos de tener máquinas verdaderamente conscientes, la complejidad creciente de los modelos hace que surjan preguntas nuevas sobre los límites de la interacción, el respeto mutuo y los marcos éticos de uso.

Anthropic no está sola en este campo. Otras empresas, como OpenAI, también están enfrentando críticas sobre cómo sus modelos pueden fomentar pensamientos distorsionados en algunos usuarios, lo que subraya la importancia de introducir mecanismos de contención y prevención.

En lugar de ver estas herramientas como simples asistentes, empieza a perfilarse una nueva narrativa: la de compañeros de conversación complejos, que también merecen ciertos límites. Es un cambio de paradigma que, aunque sutil, podría tener consecuencias profundas en cómo diseñamos, usamos y regulamos la inteligencia artificial.

Las aplicaciones más utilizadas por la tercera edad en España: tecnología con sentido y cercanía

En España, la digitalización de las personas mayores ya no es una promesa futura, sino una realidad tangible. Los datos del V Barómetro del Consumidor Sénior (Fundación Mapfre y Ageingnomics, diciembre de 2024) revelan que el 83 % de los mayores de 55 años utiliza internet más de cinco veces por semana. Esta cifra refleja un cambio de hábitos significativo en un colectivo tradicionalmente vinculado al uso analógico.