El estado actual de los AI agents es, francamente, vergonzoso. Hemos pasado los últimos dos años maravillándonos con LLMs capaces de escribir poesía y código repetitivo, pero seguimos luchando por construir un agent que pueda navegar de forma fiable por un CRM corporativo o ejecutar un flujo de trabajo de compras de varios pasos sin sufrir alucinaciones a mitad de camino. Como señala acertadamente Yu Su, vivimos en la era del agent del «salto de fe». Envías un prompt, cruzas los dedos y esperas que la tasa de éxito del 50 % se incline hoy a tu favor. Esto no es una base para el software empresarial; es un truco de magia. La reciente ronda semilla de 40 millones de dólares de NeoCognition es una señal clara de que la industria por fin se está dando cuenta de que los modelos generalistas han tocado techo en cuanto a utilidad.
Como ingeniero, lo más convincente de la tesis de NeoCognition no son solo unos «mejores agents», sino la metodología de especialización autónoma. Hemos pasado demasiado tiempo intentando exprimir el conocimiento de dominio de unos pesos estáticos y preentrenados. Ya sea mediante RAG o fine-tuning, básicamente estás intentando parchear un cerebro generalista con recuerdos específicos. No funciona porque el agent carece de un modelo de mundo coherente del entorno específico en el que opera. Los humanos no nos limitamos a memorizar datos sobre un nuevo trabajo; aprendemos la «física» subyacente de la organización: las relaciones, los vínculos causales y las consecuencias de acciones concretas. NeoCognition apuesta por que los agents deben hacer lo mismo construyendo modelos de «micromundos».
Este cambio del preentrenamiento estático al aprendizaje continuo y autónomo es la frontera técnica. Si un agent puede entrar en un nuevo entorno de software y pasar sus primeras horas o días «explorando» y construyendo un mapa causal de ese entorno, el umbral de fiabilidad cambia drásticamente. Pasamos de una conjetura probabilística a una comprensión determinista del estado del sistema. Esta es la diferencia entre un agent que «cree» que debería pulsar un botón y un agent que «sabe» lo que hace ese botón porque ha modelado el resultado. Para los desarrolladores, esto significa que debemos dejar de obsesionarnos con el prompt engineering y empezar a centrarnos en el environment engineering: crear los sandboxes donde estos agents puedan fallar, aprender y especializarse de forma segura.
No hay que pasar por alto la implicación de pesos pesados como Ion Stoica y el respaldo de Vista Equity Partners. Vista posee una parte masiva del «aburrido» mundo del software empresarial: los ERP, CRM y sistemas HRIS donde ocurre el trabajo real. Estos son los micromundos donde los agents generalistas suelen fracasar estrepitosamente. Al centrarse en estos entornos, NeoCognition no solo está construyendo un chatbot mejor; está construyendo una nueva capa del stack empresarial. Se dirigen hacia un futuro en el que el software no solo tiene una API, sino una «interfaz agéntica» que permite a un modelo de autoaprendizaje convertirse por sí mismo en un experto funcional.
Sin embargo, el camino por delante está plagado de deuda técnica. Construir un sistema que pueda aprender de forma autónoma un modelo de mundo sin un olvido catastrófico o sin derivar hacia representaciones de estado sin sentido es un desafío monumental. Requiere alejarse de la arquitectura estándar basada solo en transformers hacia algo más híbrido, que probablemente incluya razonamiento simbólico o bucles de reinforcement learning más avanzados. Pero la dirección es innegablemente correcta. La era del becario generalista está llegando a su fin. Si queremos que la IA haga realmente nuestro trabajo, tenemos que dejar que aprenda nuestras tareas de la misma manera que lo hicimos nosotros: empezando como novatos y construyendo un modelo del mundo a través del ensayo, el error y la especialización. NeoCognition es el primer intento serio de convertir esa realidad en un producto a escala.