Google ha presentado el marco Chain-of-Agents (CoA), diseñado para mejorar el manejo de tareas de contexto largo en inteligencia artificial. Este nuevo marco aborda una limitación significativa de los grandes modelos de lenguaje (LLM) mediante un modelo de colaboración entre múltiples agentes.
CoA divide las entradas largas en fragmentos más pequeños y manejables, asignándolos a agentes especializados. Este enfoque mejora la eficiencia y la precisión del razonamiento en tareas como la resumación, la respuesta a preguntas y la finalización de código, superando métodos tradicionales como la Generación Aumentada por Recuperación (RAG) y los modelos de contexto completo.
El marco opera en dos etapas: los agentes de trabajo procesan los fragmentos de entrada asignados, mientras que un agente gerente sintetiza los hallazgos en una salida final coherente. Este método imita la resolución de problemas humana, asegurando que no se pierda contexto y mejorando la precisión general.
En pruebas extensas a través de nueve conjuntos de datos, CoA superó consistentemente a RAG y a los modelos de contexto completo en términos de precisión y eficiencia. Por ejemplo, destacó en tareas de razonamiento de múltiples saltos en el conjunto de datos HotpotQA, logrando hasta un 10% de mejora sobre los modelos de referencia.
Las aplicaciones de CoA abarcan diversas industrias, incluyendo análisis legal, atención médica y desarrollo de software. Su capacidad para procesar grandes conjuntos de datos y sintetizar información lo posiciona como una herramienta valiosa para profesionales que necesitan información completa.
La introducción de CoA por parte de Google refleja una tendencia creciente hacia sistemas de IA colaborativos, enfatizando la importancia de soluciones modulares en el avance de las capacidades de la IA.