Durante los últimos años, los asistentes de codificación impulsados por inteligencia artificial se presentaron como una especie de varita mágica para los desarrolladores: herramientas capaces de transformar simples indicaciones de texto en líneas de código funcionales, prometiendo reducir los tiempos de desarrollo y aumentar la productividad. Sin embargo, recientes estudios indican que esa promesa está lejos de cumplirse.

Un informe de Bain & Company expone con claridad lo que muchos sospechaban: aunque la codificación fue uno de los primeros sectores en adoptar IA generativa, los beneficios reales han sido, en palabras de los consultores, “poco destacables”. Las empresas, seducidas por el potencial de esta tecnología, iniciaron proyectos piloto a gran velocidad, pero los resultados no han sido tan positivos como se esperaba.

Una adopción más baja de lo esperado

Uno de los principales hallazgos del informe es que, incluso en las compañías que implementaron estas herramientas, la adopción por parte de los desarrolladores ha sido sorprendentemente baja. Esto no se debe tanto a la falta de acceso, sino a la pérdida de confianza en el valor que realmente aportan estos sistemas.

Algunos equipos sí experimentaron un aumento de productividad de entre un 10% y 15%, pero esa mejora no siempre se traduce en un retorno de inversión tangible. Es decir, las empresas gastan recursos en estas herramientas, pero no logran una eficiencia que justifique la inversión. En otras palabras, el salto cualitativo prometido se está quedando en un simple brinco.

¿Productividad o retroceso?

Lo más preocupante no es que las mejoras sean modestas, sino que, en algunos casos, el uso de asistentes de codificación puede ralentizar el trabajo. Así lo confirma un estudio realizado por el grupo sin fines de lucro Model Evaluation & Threat Research, que encontró que los desarrolladores que usan herramientas de IA tardan, en promedio, un 19% más en completar sus tareas.

Esta pérdida de tiempo se debe principalmente a lo que se conoce como “alucinaciones de IA”: respuestas incorrectas que aparentan ser válidas, obligando al desarrollador a revisar, corregir o incluso rehacer por completo el código generado. Cuando se trabaja con grandes bases de código, estos errores se agravan, ya que los modelos de IA suelen tener dificultades para entender contextos complejos o históricos dentro de los proyectos.

Una confianza en declive

A pesar del crecimiento en el uso de herramientas de IA para programación, la confianza de los desarrolladores en ellas está en caída libre. Una encuesta reciente de Stack Overflow reveló que, si bien más programadores usan estas herramientas que en años anteriores, su nivel de satisfacción y confianza ha disminuido notablemente.

Los desarrolladores critican que las soluciones propuestas por la IA suelen ser “casi correctas”, pero no del todo. Este pequeño margen de error genera una carga mental y técnica adicional, ya que obliga a comprobar y validar todo lo generado. Erin Yepis, analista senior de Stack Overflow, expresó su sorpresa ante estos resultados, señalando que con tanta inversión y mejoras esperadas en la tecnología, era lógico pensar que la confianza aumentaría. Pero ha ocurrido lo contrario.

Agentes autónomos: ¿la nueva esperanza?

En medio de este panorama, hay quienes ponen sus esperanzas en los llamados “agentic AIs”: sistemas diseñados no solo para generar código, sino para ejecutar tareas de forma autónoma, gestionando distintos procesos del ciclo de desarrollo sin intervención humana constante. Bain & Company considera que solo aquellas empresas que se comprometan seriamente a rediseñar sus estructuras y flujos de trabajo podrán extraer el verdadero valor de esta tecnología.

Esto implica ir mucho más allá del simple acto de codificar. Según el informe, el valor real de la IA está en su aplicación transversal a todo el ciclo de desarrollo de software: desde la recolección de requisitos, pasando por la planificación y el diseño, hasta llegar a las etapas de prueba, despliegue y mantenimiento. Es decir, si se acelera la escritura de código, también hay que adaptar la revisión, integración y liberación de software para evitar cuellos de botella.

Riesgos de seguridad y falta de métricas

Otro aspecto alarmante es el impacto que estas herramientas pueden tener sobre la seguridad del software. Un informe reciente de la empresa de ciberseguridad Apiiro encontró que los desarrolladores que usan herramientas de IA introducen hasta diez veces más problemas de seguridad que quienes no las utilizan.

Esto sugiere que, al automatizar partes del proceso sin un control riguroso, se están creando nuevas puertas traseras y vulnerabilidades que podrían ser explotadas. El problema se agrava cuando se considera que muchas empresas aún no han definido cómo medir correctamente los supuestos aumentos de productividad.

Estamos hablando de miles de millones de dólares invertidos en herramientas cuyo rendimiento, en muchos casos, no se puede evaluar con métricas claras. Y eso convierte a la IA generativa en un experimento caro y riesgoso si no se implementa con una estrategia sólida y una visión a largo plazo.

Un futuro aún incierto

Lo que está ocurriendo en el mundo del desarrollo de software podría ser una advertencia para otras áreas que también están apostando fuertemente por la IA. Si en un campo tan estructurado como la programación los beneficios son cuestionables, ¿qué puede esperarse en industrias donde las tareas son más abiertas o impredecibles?

La clave estará en adoptar estas tecnologías con ojos críticos, entendiendo sus limitaciones tanto como sus potenciales. No se trata de abandonar la IA, sino de usarla con criterio, supervisión humana y procesos bien definidos. Como en cualquier otra herramienta poderosa, su efectividad depende en gran medida de cómo se integra al flujo de trabajo y del conocimiento que tienen los usuarios para manejarla.

ChatGPT se vuelve más personal: OpenAI lanza centro de personalización con reacciones mixtas

OpenAI ha presentado una nueva página de personalización para ChatGPT, una funcionalidad que permite a los usuarios ajustar la forma en que el chatbot se comunica. Esta actualización llega en un momento en el que la empresa busca recuperar la confianza de sus usuarios tras el tibio recibimiento de GPT-5, una versión que muchos consideran inferior a su antecesora GPT-4o en aspectos como la velocidad de respuesta y la empatía conversacional.