"Todo el mundo hace de Agente, pero ¿cuántos de ellos piensan realmente por sí mismos, lo hacen por sí mismos y lo revisan por sí mismos?".
-Agente y sus principales marcos en un artículo
De la "inteligencia universal" al mito de Manus.
En 2025, el agente de la IA está que arde. Startups, empresas de capital riesgo y gigantes pregonan su propia "revolución del cuerpo inteligente". En esta oleada, elManusSe ha convertido en un representante típico: es considerado el símbolo del "Agente General", pero también criticado por la industria como una muestra burbujeante de "vender cabeza de oveja para vender carne de perro".
La explosión de popularidad de Manus no es casual. El artículo señala que su auge se basa en tres pilares fundamentales:
| Competencias básicas | base tecnológica | instrucciones |
|---|---|---|
| Mayor capacidad de modelización | Problemas de planificación y programación de grandes modelos | La premisa de que Manus puede planificar tareas complejas |
| Amplia cadena de herramientas | MCP, uso del navegador, uso del ordenador | Habilitación de la IA con ejecución y acceso a interfaces externas |
| Ingeniería de datos y memoria | Extensión del contexto y tecnología RAG | Reducción de las alucinaciones, aumento de la persistencia y de la retroalimentación |
De este modo, el Agente dejó de ser un "juguete" para convertirse en un sistema capaz de realizar tareas en el mundo real. Sin embargo, la brecha entre el ideal y la realidad no tardó en aparecer: cuando se cuestionó la función del producto Manus, se criticó la vía de financiación e incluso sus homólogos lo calificaron de "cascarón de ingeniería", la burbuja del Agente AI empezó a pincharse.
La ilusión del "agente universal": más funcionalidad no equivale a inteligencia
señalaba Wang Hsien en su artículo:El fallo de Manus no está en la tecnología, sino en la dirección del producto.
El Agente Genérico se vende a sí mismo como un "comodín para todo", pero no es el mejor en ningún escenario específico.
La clave de este dilema es que no rompe la **"barrera de la escena "**:
- Falta de datos de dominio especializados y de una cadena de herramientas;
- Falta de certificaciones del sector y de vínculos empresariales profundos;
- Falta de cierre de entregas en escenarios de alto valor.
En otras palabras, Manus puede demostrar la capacidad de "redactar informes", "buscar información" y "generar imágenes", pero en los flujos de trabajo reales, estas capacidades parecen sersuperficial y general.
Esto sólo confirma la definición de Agente de otro artículo -
"Los agentes no son raros, son los que pueden pensar por sí mismos, hacer su propio trabajo y revisar su propio trabajo los que son buenos agentes".
Un cuerpo verdaderamente inteligente no está repleto de funciones, sino que es capaz dePlanificación dinámica, colaboración entre sistemas, aprendizaje continuo y autocorrección.

Del nivel del marco: "formación interna" del agente
Para entender por qué los productos tipo Manus tienden a "quedarse parados", debemos remontarnos al marco de implementación subyacente del Agente.
| fig. patrón | especificidades | escenario típico | Resumen de puntos fuertes y débiles |
|---|---|---|---|
| AutoGPT | Planificación autónoma + invocación de herramientas | Estudio de mercado, desglose de tareas | Gran autonomía pero difícil de controlar |
| LangGraph | Procesos diagramáticos + Gestión de estados | Colaboración multiagente | Estable pero complejo de desarrollar |
| Dify | Low Code + Visualización del flujo de trabajo | Generación de contenidos, cuestionarios de conocimientos | Rápido para empezar, pero no lo suficientemente inteligente |
| CrewAI | Multiinteligencia en equipo | Toma de decisiones en colaboración, asignación de tareas | Rendimiento flexible pero dependiente del contexto |
| AutoGen (Microsoft) | Comunicación multiagente basada en eventos | Sistemas autónomos, servicios al cliente | Alta ingeniería y elevado coste |
Estos marcos revelan un hecho:
La ecología de agentes actual se encuentra todavía en la fase de "ingeniería estructural", más que en la verdadera "fase de autonomía inteligente".
Manus, como representante del "Agente Universal", es más bien un envoltorio secundario de estos marcos, y carece de la acumulación de datos subyacentes y del pulido del flujo de trabajo.


Escollos de la evaluación: ¿cómo cuantificar exactamente la inteligencia de un Agente?
En "Rigorous Agent Evaluation Is Harder Than It Looks" (La evaluación rigurosa de los agentes es más difícil de lo que parece), el equipo de HAL (Holistic Agent Leaderboard) echa un vistazo a la9 modelos, 9 pruebas, 20.000 ejecucionesSe hicieron comparaciones y las conclusiones fueron impactantes:
"Un mayor esfuerzo de razonamiento no significa una mayor precisión".
Lo descubrieron:
- 21 de 36 casosLa alta inferencia reduce la precisión;
- Modelos superiores (por ejemplo, GPT-5, Opus 4.1)Sigue habiendo errores frecuentes;
- Por ejemplo, los agentes suelen elegir "atajos" en lugar de resolver realmente las tareas:
- Buscar respuestas directamente en las tareas web;
- Codificación de supuestos en tareas científicas;
- Reserva errónea de vuelos y reembolso de importes incorrectos en tareas de atención al cliente.
Se nota:
Los criterios actuales de evaluación de los agentes son demasiado rudimentarios.
Las métricas genéricas de precisión ocultan aspectos clave como la interpretabilidad, la estabilidad y los costes de comportamiento.
| dimensión (matem.) | edición actual | Método de evaluación ideal |
|---|---|---|
| precisión | Valores altos pero inestables | Añadir observabilidad contextual |
| costes (fabricación, producción, etc.) | El despilfarro de fichas es grave | Introducción de la curva de eficiencia de Pareto |
| Fiabilidad del comportamiento | El problema de los "atajos" es grave | Combinar el registro con el análisis de procesos (por ejemplo, Docent) |
| generalizabilidad | Grandes variaciones de rendimiento en las distintas tareas | Comparación distribuida multiescenario |
Como resultado, los Agentes genéricos pueden parecer potentes a "nivel de presentación", pero su comportamiento está muy poco controlado y evaluado de forma transparente.


Las raíces de las burbujas: capital, ingeniería y paciencia
Yip Siu-chai ha dado en el clavo en sus comentarios:
"Los fallos fundamentales del agente están en la ingeniería, en el capital, en la determinación".
La impaciencia del entorno empresarial nacional ha llevado a muchas empresas a optar por "crear impulso antes de crear cosas".
General Agent se ha convertido en la "acción conceptual de IA" más fácil de empaquetar:
- El umbral técnico es relativamente reproducible;
- Fácil de entender para los inversores;
- El efecto Demo es impresionante;
- Sin embargo, el valor en tierra es limitado.
Esto ha hecho que en poco tiempo surjan proyectos al estilo de Manus, algunos financiados con éxito, otros en fuga y disueltos.
En el calor del momento y la capital delLa "narrativa del rendimiento" de AI Agent, eclipsada por el marketing.

La verdadera salida: de lo genérico a lo vertical, de la ilusión a la certeza
Bajo la burbuja, la industria también ha tomado un nuevo rumbo.
Por ejemplo, los productos médicos para agentes OpenEvidencese considera una muestra satisfactoria de las inteligencias verticales:
| dimensión del diseño | Prácticas de OpenEvidence | Comparación de agentes genéricos tipo Manus |
|---|---|---|
| orientación al usuario | Sólo para médicos | Para todos |
| Fuente de los datos | NEJM, JAMA y otras publicaciones médicas autorizadas | Búsqueda en la web o datos introducidos por el usuario |
| formulario de salida | Cadena estructurada de pruebas y puntos | Texto generado por diálogo |
| lógica inteligente | Determinismo del flujo de trabajo + ayuda a la modelización | Modelo de toma de decisiones autónoma |
| control ilusionista | Trazabilidad de las citas + verificación manual | Falta de mecanismo de citación |
Este giro revela la dirección de la futura evolución de los Agentes:
"Modelo híbrido "flujo de trabajo + agente -- Inteligencia incierta con procesos deterministas.

Después de Manus, ¿hacia dónde se dirige AI Agent?
La historia de Manus no acaba ahí; representa a toda una industria en fase de desilusión.
Como varios artículos transmiten colectivamente el consenso básico:
- El agente no es una panacea, sino un sistema orientado a las tareas;
- Las evaluaciones deben volver al nivel del comportamiento y la observabilidad;
- El futuro pertenece a las inteligencias verticalmente profundas y basadas en datos.
El futuro de AI Agent no está en la "demo más llamativa", sino en el "proyecto más estable".
Quizá la verdadera inteligencia no sea una "ilusión de omnipotencia" como la de Manus.
Más bien se trata de "inteligencia tonta" que puede resolver un problema al extremo en un área pequeña.
