MiniMax M2.7: el modelo chino barato para escribir código que compite con Claude y GPT
Cuando hablamos de generación de código con IA y que sea barato, a muchos nos vienen a la mente los modelos chinos. En este artículo vamos a hablar de MiniMax M2.7, la última versión de un modelo enfocado en escribir código que compite directamente con Claude, GPT e incluso modelos más grandes como los de Google u otros modelos chinos.
Lo interesante de este modelo es que su principal uso es la escritura de código. De hecho, sus propios desarrolladores han llegado a construir infraestructuras completas —CI/CD, testing y hasta review de código— en solo 4 días con una sola persona y sin escribir manualmente, apoyándose en este modelo. Es decir, puede llegar a construir un sistema completo, aunque obviamente con alguien que sepa del tema.
En esta guía vamos a ver qué ofrece, cómo configurarlo con OpenCode y cómo aprovechar su plan por suscripción para ejecutar multiagentes en paralelo.
¿Por qué MiniMax M2.7?
En su última versión, los benchmarks cuentan una historia bastante clara:
- SWE-Bench Pro: casi a la par de lo que ofrece Sonnet.
- VIBE-Pro (~55%): mide qué tan cerca está la IA de resolver lo que pides al primer prompt, sin necesidad de iterar. Aquí M2.7 alcanza los puntajes más altos, a la par de modelos de Anthropic.
- MLE-Bench Lite: evalúa al modelo en competencias tipo Kaggle, y también se defiende bien.
Además, el modelo se ha adaptado para funcionar dentro de agentes como OpenClaw, que tienen un framework de memoria a largo plazo, permitiendo mantener una identidad persistente y una especie de profundidad emocional. Esto significa que no solo sirve para editores de código: también puedes usarlo dentro de asistentes más complejos.
El Token Plan: cómo funciona el precio
MiniMax ofrece varias formas de usar sus modelos:
- API directa con token pay-per-use.
- Token Plan (antes "Coding Plan"): una suscripción con un número alto de peticiones por ventana de 5 horas.
Si viste mi video anterior de MiniMax M2.5, allí mostraba el "Coding Plan". Ese plan fue renombrado a Token Plan, pero no hay ningún problema: obtienes los mismos créditos (incluso aumentaron), y quienes ya tenían el plan anterior ahora también acceden a los modelos de audio e imágenes sin costo extra.
El plan más básico es el Starter de $10, que es suficiente para todos los ejemplos de este artículo. Ofrece 50 tokens/segundo (hasta 100 en picos) y acceso tanto a M2.7 como a M2.7-highspeed.
Comparativa rápida: ejecutar este tipo de flujo multiagente con Claude Opus no se puede hacer en el plan gratuito, y el Max cuesta alrededor de $100. El plan de MiniMax es de $10–$40 para un uso comparable.
Instalando OpenCode
Para aprovechar la suscripción necesitas un agente en tu IDE/terminal. Vamos a usar OpenCode, un proyecto abierto que permite añadir tus propias suscripciones de modelos y, más importante, tiene un modo web para ejecutar múltiples instancias en paralelo.
Requisitos
- Node.js instalado (descárgalo desde nodejs.org según tu sistema operativo).
Instalación
# Con npm (recomendado en Windows)
npm install -g opencode-ai
# O con Homebrew (Mac)
brew install opencode
# O con Bun
bun install -g opencode-ai
Una vez instalado, lo lanzas con:
opencode
Conectando MiniMax a OpenCode
Dentro de OpenCode, escribe / y selecciona connect. Verás un listado de proveedores. De forma gratuita viene Code Sand, pero al haber muchos usuarios a veces queda cargando sin responder, por lo que vale la pena una suscripción con prioridad.
El que buscamos se llama MiniMax Coding Plan — específicamente el dominio minimaxcodingplan.io. Selecciónalo y te pedirá una API key.
Para obtenerla:
- Entra a la plataforma de MiniMax →
Access API now. - Login con Google o cuenta nueva.
- Ve a Token Plan y revisa tu plan activo.
- Debajo encontrarás Token Plan Key. Si no hay ninguna, pulsa
Reset→Confirm. - Copia la llave, pégala en OpenCode, enter.
Ahora tendrás acceso a los modelos M2.7 (estándar) y M2.7-highspeed (más rápido para tareas cortas).
Demo 1: un juego de Snake en un solo prompt
Creamos una carpeta ejemplos/ en el escritorio, entramos con cd y lanzamos opencode. El primer prompt:
Crea un juego de Snake completo en HTML, CSS y JS. Agrega puntuación, niveles de dificultad que cambien la velocidad, controles con flechas del teclado, modo oscuro y guarda los puntajes más altos en localStorage.
Tiempo: ~40 segundos. M2.7 genera el plan (en OpenCode lo llama Thinking), ejecuta los pasos y entrega un snake.html funcional. Controles, dificultad, modo oscuro, y si abrimos DevTools → Application → Local Storage, vemos la puntuación persistida.
Modificación iterativa
Pedimos un modo multijugador local:
Agrégale un modo multijugador local donde dos personas pueden jugar al mismo tiempo en el teclado, con WASD y flechas.
Tiempo: ~1 minuto 6 segundos. Relee el archivo, aplica los cambios y el modo funciona con colisiones correctas entre ambos jugadores.
Esto conecta directamente con el benchmark VIBE-Pro: pedir algo y obtener el resultado cerca del primer prompt, sin iterar 10 veces.
Demo 2: planificando un SaaS completo
OpenCode permite abrir nueva sesión con /new y cambiar a modo plan con Shift + Tab. Le pedimos:
Planifica la arquitectura completa de un SaaS con autenticación (incluyendo Google), dashboard de estadísticas de productos y ventas, CRUD completo de productos, exportables a CSV y PDF. Stack: Next.js 15 + PostgreSQL + Prisma, despliegue en Railway.
Tiempo: ~2 minutos para una planificación paso a paso, incluyendo diagramas en texto. Está bastante bien para un modelo mucho más barato que la mayoría.
Quitamos el modo plan (Shift + Tab), le decimos crea el proyecto y lo deja trabajar.
Tiempo: ~12 minutos para el proyecto generado. Usa shadcn/ui, registro funcional, login, creación de productos, y la base de datos se llena correctamente. Incluso podemos pedirle llena los datos con ejemplos seed y lo hace automáticamente.
Después de todo esto, el uso de mi plan estaba apenas en un 15%. Para crear proyectos grandes pagando muy poco en tokens, es de los modelos más rentables del mercado ahora mismo.
Multiagentes con opencode web
Aquí está la parte más interesante. OpenCode tiene un modo web:
opencode web
Esto abre http://localhost:4096 en el navegador, y desde ahí puedes abrir múltiples proyectos en paralelo, cada uno con su propia sesión del modelo.
Nota importante: el selector de carpetas está basado en rutas estilo Unix. En lugar de buscar gráficamente, escribe la ruta como
~/Desktop/ejemplos/inventory-saasaunque estés en Windows.
Con dos proyectos abiertos (snake-game e inventory-saas), probamos esto:
- En
inventory-saas: "Añade el envío de correos con Resend para compras y recuperación de contraseña" → modo plan. - Simultáneamente, en
snake-game: "Permite crear un nickname de usuario al empezar" → modo build.
Ambos se ejecutan al mismo tiempo, consumiendo del mismo plan de MiniMax. Mientras uno arma la planificación (y te hace preguntas tipo "¿en qué formato prefieres guardar la confirmación de correos?"), el otro ya está modificando código.
Después de un rato de uso, seguía teniendo alrededor de 100 peticiones disponibles en la ventana de 5 horas. Para multiagente, esto es sencillamente uno de los modelos más baratos que existen hoy.
¿Para quién es MiniMax M2.7?
De forma resumida, M2.7 es más rápido que M2.5, requiere muchos menos retoques y su escritura de código es lo suficientemente buena como para que no estés corrigiendo manualmente cada archivo. Está mucho más cercano a versiones anteriores de Opus que a modelos genéricos.
Tiene sentido para:
- Desarrolladores que buscan una alternativa más económica a Claude o GPT.
- Gente experimentando con agentes que necesita un modelo que maneje muchas herramientas.
- Equipos pequeños que no quieren gastar en varias suscripciones caras.
- Plataformas de vibe coding que integran IA: al ser mucho más barato que la API de Claude, resulta ideal si estás construyendo tu propia herramienta.
Además, al ser un modelo abierto, puedes descargarlo desde Hugging Face, revisar el blog técnico de MiniMax y estudiar cómo funciona internamente, o incluso servirlo tú mismo con vLLM o SGLang.
Recursos
- Hugging Face — MiniMaxAI/MiniMax-M2.7
- Blog post oficial de MiniMax M2.7
- Documentación técnica
- OpenCode
💡 Usando el enlace de la descripción del video obtienes un 12% de descuento en el Token Plan.
Si ya usas este modelo o alguna variación (M2-Her, M2.5, M2.1), déjame tus comentarios contando cómo lo estás aprovechando. Y si quieres profundizar en este tipo de setups o discutir arquitectura para un proyecto propio, puedes reservar una asesoría personalizada en fazt.dev.