OpenAI ha confirmado lo que muchos en la comunidad tecnológica ya sospechaban: las alucinaciones en los modelos de inteligencia artificial no son fallos de programación, sino una consecuencia inevitable de los principios matemáticos que los sustentan. En un estudio publicado el 4 de septiembre de 2025, investigadores de OpenAI, junto a un profesor de Georgia Tech, demostraron que incluso los modelos entrenados con datos perfectos están condenados a producir información falsa en determinadas circunstancias.

Este hallazgo, lejos de ser una simple observación técnica, cambia la forma en la que se debe gestionar, evaluar y aplicar la inteligencia artificial generativa en entornos reales. En lugar de aspirar a la perfección, las empresas y desarrolladores deben aprender a convivir con un margen de error inherente al funcionamiento de estos sistemas.

Por qué los modelos «alucinan»

Las llamadas alucinaciones de la IA no son otra cosa que respuestas incorrectas pero plausibles. El problema radica en que los modelos de lenguaje funcionan como adivinadores estadísticos, prediciendo la siguiente palabra más probable a partir de un contexto previo. Es un poco como completar una frase de otra persona sin haberla escuchado entera: la intuición puede funcionar muchas veces, pero en otras puede llevarnos a errores lógicos o factuales.

El estudio identifica tres razones matemáticas fundamentales por las cuales estos errores ocurren:

  • Incertidumbre epistémica: cuando la información aparece con muy poca frecuencia en los datos de entrenamiento, el modelo no puede aprenderla correctamente.
  • Limitaciones de representación: hay tareas que simplemente exceden la capacidad de los modelos actuales, por sofisticados que sean.
  • Intractabilidad computacional: incluso una IA teóricamente perfecta no podría resolver ciertos problemas matemáticos sin caer en errores o suposiciones.

Así, el acto de «alucinar» no es un descuido, sino una consecuencia de tener que tomar decisiones sin contar con certeza absoluta. Como explican los autores del estudio, los modelos actúan como estudiantes en un examen difícil: si no saben la respuesta, intentan adivinar algo que suene creíble.

Incluso los mejores modelos se equivocan

OpenAI no limitó su análisis a modelos ajenos, sino que evaluó también sus propios sistemas. A pesar de los avances, incluso GPT-5 sigue cometiendo errores de este tipo. Algunos modelos más nuevos, como o3 y o4-mini, presentaron tasas de alucinación de hasta el 48% al resumir información pública, lo cual pone en evidencia que a mayor sofisticación no necesariamente corresponde una menor tasa de error.

Modelos de la competencia tampoco salieron bien parados. Al preguntar cuántas letras «D» contiene la palabra «DEEPSEEK», el modelo DeepSeek-V3, con 600 mil millones de parámetros, dio respuestas que variaban entre 2 y 7. Un dato objetivo, trivial para un humano, se convirtió en un ejercicio de suposición para la IA.

Evaluar mal también empeora el problema

Uno de los puntos más críticos del estudio fue la forma en la que se evalúa la precisión de estos sistemas. OpenAI revela que muchos de los benchmarks más populares premian las respuestas seguras, incluso cuando son incorrectas, y penalizan aquellas que expresan duda. Esto incentiva que los modelos «improvisen» respuestas, en lugar de reconocer que no tienen suficiente información.

Modelos entrenados con este tipo de sistemas de recompensa desarrollan un sesgo hacia la confianza excesiva. Es como si en un juego de trivia puntuáramos mejor a quien contesta rápido que a quien se toma un momento para verificar los hechos.

Implicaciones para las empresas

La industria tiene que adaptarse a esta nueva realidad. Expertos como Charlie Dai, de Forrester, y Neil Shah, de Counterpoint Technologies, coinciden en que los marcos de gobernanza actuales no bastan. El enfoque debe moverse desde evitar errores hacia gestionar y contener los riesgos que estos errores implican.

Esto implica desarrollar modelos de supervisión humana, controles de calidad contextualizados por sector (como salud o finanzas), y sistemas de monitoreo continuo. No se trata solo de filtrar lo que sale mal, sino de entender por qué y cuándo es probable que ocurra.

Shah propone incluso una homologación similar a la de la industria automotriz: así como los componentes de un vehículo tienen niveles de seguridad definidos, los modelos de IA deberían clasificarse según su perfil de riesgo y confiabilidad.

Nuevas métricas y más transparencia

Una de las propuestas más interesantes es el desarrollo de índices de confianza en tiempo real, que no solo evalúen si una respuesta es correcta, sino si tiene sentido dentro de su contexto y con base en la calidad de la fuente. Este tipo de herramientas permitiría a los usuarios saber cuán confiables son las respuestas que están recibiendo en cada momento.

De igual forma, los procesos de selección de proveedores de IA deberían centrarse menos en los puntajes de benchmark estáticos y más en la capacidad de ofrecer confianza calibrada, explicaciones claras y validación en escenarios reales.

El futuro: convivir con la incertidumbre

Aceptar que los modelos de lenguaje no pueden ser infalibles es un cambio de paradigma. No se trata de arreglar un error, sino de redefinir el éxito en inteligencia artificial. Un modelo que reconoce sus límites, que indica cómo de seguro está de su respuesta, y que está respaldado por un sistema de control humano, es mucho más valioso que uno que simplemente responde rápido y con seguridad.

Esto no significa rendirse ante la imperfección, sino aprender a gestionarla con inteligencia y responsabilidad. Las empresas, los reguladores y los usuarios tienen ahora la responsabilidad compartida de construir un ecosistema de IA más transparente, seguro y adaptativo.

Google Chrome se transforma con Gemini: así cambia la experiencia de navegación con IA

Google ha dado un paso más en su apuesta por la inteligencia artificial generativa al incorporar nuevas funciones de Gemini en Chrome, su navegador con casi dos décadas de trayectoria. Esta integración busca mejorar la productividad, simplificar la navegación diaria y aumentar la seguridad online mediante herramientas impulsadas por IA que ya están disponibles para usuarios de escritorio en Estados Unidos, tanto en Mac como en Windows, con el idioma configurado en inglés.