OpenAI ha dado un paso más en la carrera de la inteligencia artificial con el lanzamiento de Sora 2, su generador de video y audio que transforma texto en clips fotorrealistas con una precisión física nunca antes vista. Este sistema viene acompañado de una aplicación móvil, actualmente en fase de invitación privada, que funciona como una versión potenciadamente infinita de TikTok. Allí, los usuarios pueden navegar por una corriente constante de contenido generado por IA.
La promesa de Sora 2 es ofrecer videos más realistas, controlables y físicamente coherentes que sus predecesores. Pero esta nueva tecnología no ha sido recibida con entusiasmo universal. Los primeros videos demostrativos han generado reacciones negativas, tildados de «inquietantes» y «sin alma» por muchos usuarios en redes sociales
Cuando la broma se convierte en advertencia
En un intento de demostrar la potencia de Sora 2, Gabriel Petersson, desarrollador de OpenAI, generó un clip estilo CCTV en el que Sam Altman, CEO de la compañía, aparece robando una tarjeta gráfica en una tienda. Aunque la intención era satírica, en referencia a la intensa competencia por hardware de IA como los chips de Nvidia, el video plantea un problema mucho más grave: la facilidad con la que se pueden falsificar pruebas visuales creíbles.
Este tipo de contenidos, aunque parezcan inofensivos al principio, abren la puerta a escenarios peligrosos donde cualquier persona podría ser falsamente incriminada en un hecho delictivo. En un contexto judicial, donde el video suele ser considerado evidencia contundente, este tipo de falsificaciones podría tener consecuencias devastadoras.
La desconfianza en la evidencia visual
La frase de un usuario en redes sociales, «cada abogado defensor ahora tiene una moción preescrita contra la evidencia en video», captura el temor generalizado ante esta tecnología. El simple hecho de que sea tan fácil crear un clip de alguien cometiendo un crimen ficticio hace que la confianza en el video como prueba objetiva pierda fuerza.
El problema no es nuevo. Ya se han documentado casos donde el uso de reconocimiento facial impulsado por IA ha llevado a arrestos injustificados. En St. Louis, por ejemplo, un hombre fue identificado erróneamente por un sistema de IA como sospechoso de un crimen. A pesar de las advertencias sobre la fiabilidad limitada de esta tecnología, las autoridades usaron esa información como base para construir un caso que terminó siendo desestimado.
Ahora, con herramientas como Sora 2, la amenaza se multiplica: no solo se puede identificar incorrectamente a una persona, sino fabricar una escena completa en la que aparezca cometiendo un delito.
El dilema ético del contenido generado por IA
El caso de Sora 2 refleja un dilema profundo en el desarrollo de IA generativa: hasta qué punto las empresas están preparadas para gestionar las implicaciones éticas de sus creaciones. OpenAI asegura que su sistema cuenta con mecanismos de protección, como la función «cameo», que permite a los usuarios insertar su imagen en los videos de forma voluntaria y controlada.
Según la compañía, con «cameos» el usuario tiene el control total sobre su apariencia: puede otorgar o revocar el permiso de uso de su imagen, y visualizar en cualquier momento los videos donde aparezca. Además, OpenAI afirma que bloquea la generación de videos con figuras públicas y ofrece herramientas para denunciar contenido abusivo.
Sin embargo, en la práctica, estas salvaguardas parecen ser fácilmente evitables. El hecho de que un empleado haya podido generar y difundir un video de su propio CEO cometiendo un delito, aunque en tono de broma, demuestra que los controles internos aún están lejos de ser infalibles.
La normalización del contenido «slop»
Un aspecto curioso del lanzamiento de esta app es la creciente aceptación del contenido denominado «slop», es decir, videos generados en masa por IA con apariencia realista pero carentes de intención narrativa o emocional. La plataforma de OpenAI parece estar diseñada para promover este tipo de producción continua y despersonalizada.
Esta tendencia podría transformar profundamente nuestra relación con los medios audiovisuales. Así como hoy existen filtros en redes sociales que embellecen rostros hasta el punto de que cuesta reconocer la realidad, los generadores de video podrían llevarnos a un escenario donde ya no sepamos distinguir entre lo real y lo artificial.
Implicaciones para la justicia y la sociedad
Si se populariza el uso de videos generados por IA, será inevitable que el sistema judicial, los medios de comunicación y la opinión pública comiencen a cuestionar la autenticidad de cualquier grabación. Esto podría erosionar una de las pocas herramientas objetivas que quedaban para esclarecer hechos.
A largo plazo, también se corre el riesgo de una banalización del delito simulado. Si ver un video de una celebridad robando o actuando de forma extraña se convierte en algo cotidiano, se diluye el impacto que tienen estas acciones en la vida real. La cultura de la desinformación podría reforzarse, con consecuencias en la confianza social y la cohesión ciudadana.
Una tecnología que exige responsabilidad
El desarrollo de Sora 2 no es intrísicamente negativo. Como herramienta, puede ser extremadamente valiosa para la educación, la producción audiovisual o la accesibilidad. Pero también es un espejo que refleja nuestras propias limitaciones para establecer marcos éticos robustos ante innovaciones disruptivas.
La pregunta que queda abierta es si las empresas como OpenAI serán capaces de anteponer la responsabilidad social a la velocidad de la innovación. Porque cuando la posibilidad de manipular la realidad se vuelve tan sencilla como escribir una frase, no solo está en juego la creatividad, sino también la verdad.