Por qué la mayor parte de los proyectos de inteligencia artificial fracasan

La promesa de la inteligencia artificial ha creado en muchas organizaciones una sensación de urgencia que con frecuencia precede a la comprensión del problema que se quiere resolver. Los comités de dirección asignan presupuesto a «iniciativas de IA» sin haber definido con precisión qué deficiencia operativa pretenden corregir, qué métrica de negocio debería mejorar, o cómo sabrán en tres meses si el proyecto ha funcionado. El resultado es predecible: el modelo se integra, el dashboard se presenta, el proveedor factura, y nadie recuerda por qué se empezó.
Después de participar directamente en la implantación de una docena larga de proyectos de inteligencia artificial, tanto en organizaciones propias como ajenas, he identificado cinco causas recurrentes por las que estos proyectos terminan en el cajón de lo que podría haber sido. Ninguna de ellas es técnica.
Primera causa: la ausencia de un problema bien formulado
El error inaugural consiste en formular el proyecto en términos de la solución en lugar de en términos del problema. «Queremos meter inteligencia artificial en atención al cliente» no es un objetivo: es la anticipación de una respuesta. El objetivo correcto sería «queremos reducir en un cuarenta por ciento el tiempo medio de resolución de incidencias de primer nivel». A partir de ese objetivo es posible evaluar si la inteligencia artificial es la herramienta adecuada, o si existen opciones más simples que deberían descartarse primero.
En la mayoría de los casos que he visto, la herramienta óptima no era un modelo de lenguaje sino un rediseño del flujo de trabajo o una automatización tradicional mediante reglas. El modelo se acababa integrando porque era lo que el comité quería oír, no porque fuera lo que el problema pedía.
Segunda causa: la confusión entre capacidad técnica y valor de negocio
Los modelos actuales son impresionantes. Esa impresión es el enemigo del juicio. Un modelo que resume actas de reunión con una precisión técnica asombrosa no aporta valor si el problema real era que los asistentes no seguían los acuerdos tomados. La capacidad técnica sin conexión con el resultado de negocio es un espectáculo, no un retorno.
La pregunta que deberíamos hacernos en cada proyecto es incómoda: si el modelo funciona exactamente como está previsto, ¿qué cifra concreta de la cuenta de resultados cambiará, en cuánto, y cuándo? Si no existe una respuesta clara, el proyecto no está listo para empezar.
Tercera causa: la subestimación del coste de mantenimiento
El coste visible de un proyecto de inteligencia artificial es el del desarrollo inicial. El coste real es el del mantenimiento. Los modelos cambian, los proveedores actualizan precios, los datos de entrada se desvían con el tiempo, los casos de borde aparecen en producción y el rendimiento medido en el momento del lanzamiento se deteriora de forma gradual.
Un proyecto que tenía sentido económico con un coste de seis meses puede dejar de tenerlo con el coste real de dos años. Una parte significativa de los proyectos que se abandonan no lo hacen porque no funcionen: lo hacen porque el coste total de propiedad se hace insostenible cuando el equipo técnico interno no tiene el criterio para optimizarlo.
Cuarta causa: la ausencia de instrumentación
Es sorprendente con qué frecuencia se lanza a producción un sistema basado en inteligencia artificial sin una instrumentación mínima que permita saber si funciona bien. ¿Cuántas consultas atiende al día? ¿Qué porcentaje resuelve con éxito? ¿Qué calidad subjetiva percibe el usuario final? ¿Cuánto cuesta cada interacción? Sin estas respuestas, cualquier afirmación sobre el retorno del proyecto es una fabulación.
La instrumentación no es opcional. Es la precondición para que el proyecto sea evaluable, y por tanto, para que pueda mejorar. Los proyectos que no se miden nunca mejoran: solo envejecen.
Quinta causa: el desconocimiento del contexto del modelo
Los modelos de lenguaje son herramientas con características específicas: ventana de contexto limitada, tendencia a la confabulación en ausencia de información, sensibilidad al formato del prompt, variabilidad entre versiones del mismo proveedor. Quien integra un modelo sin entender estas características termina sorprendiéndose cuando el sistema falla de formas que eran previsibles.
La figura del arquitecto de sistemas de inteligencia artificial aplicada es relativamente reciente y escasea. Muchas organizaciones delegan el trabajo en el equipo de desarrollo existente sin apoyo externo, y cometen errores que tienen más que ver con el desconocimiento del dominio que con la falta de capacidad técnica.
Qué funciona
Los proyectos que sí llegan a producir valor comparten características observables. Parten de un problema concreto y medible. Eligen la herramienta más simple que podría resolver el problema, descartando la inteligencia artificial cuando no sea necesaria. Cuantifican el coste total de propiedad antes de empezar. Instrumentan el sistema desde el primer día. Y tienen a alguien con el criterio suficiente para distinguir cuándo el modelo está funcionando y cuándo está fingiendo.
El trabajo del asesor externo en estos proyectos consiste con frecuencia en ser la voz que plantea las preguntas incómodas al principio, cuando todavía hay tiempo de reformular el proyecto, en lugar de al final, cuando ya solo queda archivar los resultados y aprender del error. Las preguntas son las mismas en todos los casos y las respuestas determinan si el proyecto valdrá la pena o no. Preguntarlas es gratis. No hacerlo puede costar muy caro.