Por Michelle Ballesteros Aguirre
La industria tecnológica prometió que 2025 sería el año de los “agentes de IA”, sistemas autónomos capaces de gestionar tareas complejas. Sin embargo, ese horizonte se ha ido posponiendo, y un estudio reciente plantea una pregunta incómoda: ¿y si ese futuro nunca llega por una limitación matemática fundamental?
La investigación, titulada “Estaciones de alucinación”, argumenta con base matemática que los modelos de lenguaje actuales (LLM) son incapaces de realizar tareas computacionales y de agencia más allá de cierto nivel de complejidad. Según los autores —entre ellos un ex director de tecnología de SAP—, incluso las versiones avanzadas que intentan ir más allá de la simple predicción de palabras no resolverían este problema estructural.
Vishal Sikka, coautor del estudio, lo resume de forma contundente: “No hay forma de que sean fiables”. Aunque podrían utilizarse para tareas simples y de bajo riesgo, como organizar archivos, cualquier sistema que requiera fiabilidad absoluta —como operar una central nuclear— estaría, según esta visión, matemáticamente condenado al fracaso. La industria, sin embargo, sigue apostando por el potencial de los agentes autónomos, creando un debate entre el escepticismo teórico y el impulso comercial.
