OpenAI ha anunciado una serie de cambios significativos en sus políticas de uso de ChatGPT, especialmente dirigidas a usuarios menores de 18 años. Estas modificaciones responden a preocupaciones cada vez más serias sobre el impacto de los chatbots conversacionales en la salud mental y emocional de los adolescentes. La empresa, liderada por Sam Altman, ha tomado la decisión de priorizar la seguridad sobre la privacidad y libertad de los menores en sus interacciones con la inteligencia artificial.
Eliminando flirteos y abordando conversaciones de autolesión
Uno de los cambios más relevantes es la eliminación de cualquier tipo de interacción con contenido sexual o insinuaciones románticas cuando se detecte que el usuario es menor de edad. Esto incluye la prohibición expresa de conversaciones con tono coqueto o insinuante, un problema que ha generado controversia en otras plataformas como Character.AI.
En lo referente a temas de salud mental, OpenAI ha reforzado los mecanismos de prevención frente a posibles situaciones de riesgo suicida. Si un adolescente utiliza ChatGPT para hablar de pensamientos suicidas o escenarios de autolesión, el sistema podrá intentar contactar a sus padres o, en casos extremos, alertar a la policía local. Este protocolo busca intervenir antes de que ocurra una tragedia, y se inspira directamente en casos recientes y dolorosos como el de Adam Raine, un joven que se quitó la vida tras mantener conversaciones con un chatbot.
Demandas judiciales y presión legislativa
La decisión de OpenAI no surge en el vacío. Actualmente, la compañía enfrenta una demanda por homicidio culposo interpuesta por los padres de Adam Raine. Según alegan, el joven estuvo durante meses interactuando con ChatGPT, lo que podría haber influido en su deterioro emocional. Este caso, junto con otros similares, ha puesto bajo escrutinio a toda la industria de los modelos generativos de lenguaje.
Coincidiendo con el anuncio de estas nuevas reglas, el Senado de EE.UU. llevó a cabo una audiencia titulada «Examinar el daño de los chatbots de IA», promovida por el senador Josh Hawley. En esa sesión, el padre de Adam Raine está entre los testigos principales, en un intento por visibilizar los peligros a los que están expuestos los jóvenes al interactuar con sistemas tan avanzados.
Herramientas de control para padres
Como parte de este enfoque más protector, OpenAI también ha incorporado una función que permite establecer horarios de inactividad o «blackout hours», durante los cuales el adolescente no podrá acceder a ChatGPT. Esta característica solo está disponible cuando la cuenta del menor está vinculada a la de un padre o tutor, lo cual permite una supervisión directa y la posibilidad de recibir alertas si se detecta que el menor está en una situación emocional crítica.
Este tipo de funcionalidades busca empoderar a las familias para que puedan establecer límites de uso razonables y proteger la salud emocional de sus hijos, sin necesidad de depender exclusivamente de la tecnología para detectar riesgos.
Desafío técnico: identificar a los menores de edad
Uno de los mayores retos que enfrentan las plataformas de IA es verificar la edad de los usuarios. OpenAI reconoce que determinar si una persona tiene menos de 18 años no siempre es sencillo, especialmente si el usuario no proporciona información verificada. Por ello, la empresa está desarrollando un sistema a largo plazo para distinguir entre adultos y menores. Mientras tanto, cuando existan dudas, el sistema aplicará por defecto las reglas más restrictivas.
Este enfoque precautorio responde a una filosofía de «mejor prevenir que lamentar». Aunque podría generar frustración en algunos usuarios que se identifiquen como mayores de edad pero no lo hayan verificado, la compañía defiende su decisión como una medida necesaria ante los riesgos actuales.
Privacidad y libertad para los adultos
Mientras refuerza la seguridad para los jóvenes, OpenAI mantiene su compromiso con el respeto a la privacidad y libertad de los adultos. Sam Altman ha reconocido que estas prioridades pueden estar en conflicto, pero considera que es posible equilibrarlas. El sistema seguirá permitiendo a los usuarios adultos utilizar ChatGPT con un margen amplio de libertad, siempre dentro del marco legal y las normas de uso responsable.
En definitiva, la compañía intenta establecer una doble vía de protección y autonomía, donde los menores tengan un entorno seguro, mientras que los adultos con capacidad de discernimiento conserven su libertad para experimentar y conversar con la IA de forma más abierta.
Un precedente para la industria
Las decisiones de OpenAI podrían convertirse en un referente para otras empresas tecnológicas, en especial aquellas que desarrollan interfaces conversacionales con capacidades emocionales o de acompañamiento. Tras una investigación de Reuters que reveló documentos internos de Meta donde se sugería fomentar interacciones sexuales con menores, otras compañías han comenzado a reevaluar sus políticas internas.
La discusión va más allá de lo técnico y entra en el terreno de lo ético. La pregunta que sobrevuela esta problemática es: ¿debe un chatbot comportarse como un amigo incondicional, incluso si eso implica reforzar ideas autodestructivas o inapropiadas? OpenAI responde con un no rotundo, y sus nuevas reglas intentan traducir esa postura en acciones concretas.