Informes recientes indican que OpenAI, Google y Anthropic están enfrentando desafíos significativos para avanzar en sus modelos de IA de próxima generación. A pesar de la emoción en torno a las actualizaciones de IA, las mejoras anticipadas pueden no materializarse tan rápidamente como se esperaba.
El modelo Orion de OpenAI, por ejemplo, supuestamente no está cumpliendo con las expectativas de rendimiento, especialmente en tareas de codificación. Esto ha llevado al CEO Sam Altman a minimizar los rumores sobre la fecha de lanzamiento y las actualizaciones de ChatGPT. De manera similar, el proyecto Gemini de Google está avanzando más lento de lo previsto, mientras que Anthropic ha retrasado el lanzamiento de su modelo Claude 3.5 Opus.
Las tres empresas se enfrentan a limitaciones relacionadas con los datos de entrenamiento. Si bien se han utilizado enormes conjuntos de datos, la disponibilidad de información de alta calidad y no utilizada está disminuyendo. Esta escasez, combinada con consideraciones éticas sobre el uso de datos, plantea un desafío para nuevas mejoras en las capacidades de la IA. Incluso con suficientes datos en bruto, los costos asociados con su procesamiento e integración en los modelos de IA son significativos.
Para sortear estos obstáculos, los desarrolladores están explorando métodos alternativos de mejora, como la incorporación de retroalimentación humana después del entrenamiento. Sin embargo, este enfoque es más lento y plantea preguntas sobre los límites potenciales de la escalabilidad de los modelos de IA.
Como resultado, los usuarios pueden experimentar un lanzamiento gradual de nuevas funciones de IA. Este ritmo podría ofrecer una oportunidad para explorar y utilizar plenamente las herramientas de IA existentes, como ChatGPT-o1. Además, esta desaceleración podría permitir a OpenAI concentrarse en lanzar su muy esperado creador de videos Sora AI, que ha permanecido muy restringido a pesar de las continuas demostraciones.