En 2025, la IA parecía haber chocado contra una barrera de avances. Una barrera que desapareció en febrero de 2026

BlogFebruary 18, 2026

Recuerdo con afecto el período en que Intel y AMD competían intensamente por desarrollar la primera CPU que alcanzara 1 GHz de frecuencia de reloj. Esa competencia la ganó AMD, de manera inesperada, pero hasta ese logro, el progreso parecía acelerado. O al menos eso creíamos, ya que con la inteligencia artificial, el flujo de novedades está completamente descontrolado.

Han sido unas semanas intensas, estimados lectores. Revisemos lo ocurrido:

  • 27 de enero: Kimi.ai presenta Kimi J2.5
  • 5 de febrero: Anthropic introduce Claude Opus 4.6
  • 5 de febrero: Ese mismo día, OpenAI lanza GPT-5.3-Codex
  • 5 de febrero: Kuaishou lanza Kling 3.0
  • 12 de febrero: Z.ai presenta GLM-5
  • 12 de febrero: ByteDance lanza Seedance 2.0
  • 12 de febrero: MiniMax lanza MiniMax 2.5
  • 16 de febrero: Alibaba lanza Qwen3.5-397B-A17B
  • Próximamente: DeepSeek v4, ¿Llama?, Gemini 3.1, …

El paso es extremadamente rápido, y los modelos de lenguaje grandes que hace unas semanas o meses se veían impresionantes ahora pierden algo de su brillo. Las versiones actualizadas de estos modelos siguen avanzando, y las compañías de IA continúan entregando innovaciones de manera incesante. Resulta casi abrumador.

Esto, naturalmente, trae aspectos positivos y negativos. Cerramos 2025 con una sensación de cansancio frente a una IA que ofrecía grandes promesas pero no transformó mucho en la práctica. Solo hacia el final del año surgió un cambio notable con la combinación destacada de Claude Code y Opus 4.5.

La dupla de Anthropic asombraba a los programadores, quienes por primera vez coincidían en afirmar que con esta herramienta se podía solicitar a la IA cualquier tarea, y ella la codificaba de inmediato y casi siempre sin fallos. Por supuesto, había algo de hipérbole en esas afirmaciones, pero la habilidad de Opus 4.5 y la independencia y flexibilidad de Claude Code representaron un momento decisivo.

Después llegó OpenClaw, lo que ha elevado nuevamente las esperanzas en los agentes de IA, pero al mismo tiempo observamos un auge masivo en el lanzamiento de nuevos modelos de IA generativa, tanto para video (Kling 3.0 y especialmente Seedance 2.0 se han vuelto virales por derecho propio) como para texto y código. Con cada modelo nuevo, surge la afirmación de que su desempeño supera al de la generación previa. Al menos, según los benchmarks.

Esos gráficos de barras se han vuelto habituales, particularmente cuando el lanzamiento proviene de una empresa china. Si se trata de OpenAI, Google o Anthropic, prefieren las tablas. En cualquier caso, el resultado es invariable: cada modelo mejora a su antecesor y, a menudo, a varios competidores.

Fatiga por las suscripciones a servicios de IA

El inconveniente radica en que esta competencia no parece tener fin, y un modelo que hoy parece excepcional mañana puede ser superado ligeramente por un rival, que además podría ser más económico —los modelos chinos suelen serlo— o proporcionar beneficios como ventanas de contexto más amplias para ingresar textos extensos, como grandes repositorios de código, en las consultas.

Esto genera un dilema para los usuarios. Si Opus 4.5 era tan efectivo, alguien podría optar por el plan Pro o Max y pagar un año por adelantado, pero eso implica riesgos, ya que aunque accederías a modelos futuros, habrías comprometido tu presupuesto en suscripciones de IA con Anthropic, limitando las opciones para experimentar con alternativas.

Aquí prevalecen las suscripciones de corto plazo: inscribirse por un mes para mantener flexibilidad y probar otro modelo al mes siguiente (o incluso varios en el mismo período, lo cual es frecuente).

Los costos de las suscripciones a servicios de IA no facilitan estas pruebas múltiples. Lo habitual es abonar 20 euros por un mes, y aunque los modelos chinos son considerablemente más asequibles, suelen estar un paso atrás en rendimiento si se buscan las capacidades máximas.

Sin embargo, el dilema persiste: si me inscribo ahora en GPT-5.3-Codex, que muchos elogian como excelente, ¿por cuánto tiempo lo mantengo, solo un mes? ¿O me suscribo también a GLM-5 para evaluarlo, y el próximo mes pruebo Opus 4.6 y MiniMax 2.5?

Estas elecciones son complicadas porque la valoración de cada modelo varía según el usuario. Cada persona tiene sus requisitos, presupuesto y experiencias únicas con los modelos, por lo que, a pesar de lo que indiquen los benchmarks, con los modelos de IA ocurre algo similar a los vinos: aunque se diga que uno es superior, la percepción es altamente subjetiva.

Ese progreso acelerado ha revivido la anticipación por modelos que realmente destaquen. El vibe coding no es impecable, pero resuelve cada vez mejor las demandas, y lo mismo sucede con agentes de IA como OpenClaw, que con sus fortalezas y debilidades indican que un futuro con un asistente de IA —aunque inicialmente algo ineficiente— operando las 24 horas no está tan distante.

Son épocas de vértigo y fascinación para la IA. Una vez más.

Imagen | Mohammad Rahmani

Advertisement

Loading Next Post...
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...