¡Saluditos prenavideños desde Canarias 🇮🇨!

Ya huele a polvorones y a code freeze. Estamos a mediados de diciembre y, como era de esperar, la industria ha decidido soltar todo lo que tenía guardado antes de que nos vayamos de vacaciones.

Si pensabas que ibas a tener una semana tranquila, olvídate. OpenAI se ha despertado de la siesta, Mistral nos ha regalado un juguete para los que volvemos a casa en avión, y la fiebre por el "Offline First" es la nueva tendencia para cerrar 2025.

Esta semana va de prepararse para el 2026: modelos que se autocorrigen solos y stacks que funcionan sin WiFi.

¡Al turrón!

📜 El menú de hoy incluye:

  • 🎄 OpenAI O3 (Preview): El regalo anticipado de Sam Altman.

  • ✈️ Modo Avión: Programar con IA sin internet ya es viable.

  • 🇫🇷 Mistral Codestral 25B: El modelo que cabe en tu MacBook.

  • 👩🏿‍💻 Tutorial Exprés: Monta tu "Local Brain" para programar offline estas fiestas.

  • 🎒 Stack de la semana: El kit de supervivencia sin conexión.

👩🏿‍💻 Top-5 Vibe News

1. OpenAI lanza "O3-Preview" (Project Orion)

Se acabó el silencio. OpenAI ha lanzado una preview técnica de O3. No es un chat, es un sistema de razonamiento puro. La gran novedad: "Self-Correction Loop".

Vibe Check: O3 no te da la primera respuesta que piensa. Escribe código, lo ejecuta en un sandbox interno, ve que falla, lo arregla y luego te lo da. Es lento (tarda 10-15 segs), pero el código que escupe es bulletproof 🚅 .

2. Mistral lanza "Codestral 25B - Mamba"

Los franceses de Mistral siguen a lo suyo. Han sacado un modelo de código basado en arquitectura Mamba (no Transformer) de 25B parámetros.

🧠 Por qué importa: Es increíblemente eficiente. Corre en un MacBook M3/M4 Pro a velocidad de vértigo y tiene una ventana de contexto infinita teórica. Perfecto para meterle tu repo entero en local.

3. Cursor añade "Offline Mode" nativo

Viendo la tendencia, el editor de moda, Cursor, ha añadido soporte oficial para modelos locales (Ollama/Llama.cpp) con un solo clic. Ya no hace falta configurar puertos raros.

🛬 La realidad: Si vas a viajar en tren o avión estas navidades, ya puedes seguir haciendo vibe coding sin pagar el WiFi abusivo de Renfe o Iberia.

4. Vercel v0 "Projects" sale de beta

La herramienta de generación de UI de Vercel ahora genera proyectos full-stack. Ya no te da solo el componente de React, te da la base de datos (Postgres), las API routes y la autenticación montada en un zip descargable.

🥊 La batalla: Lovable vs v0 vs Bolt. La guerra de 2026 va a ser quién te da la app entera más rápido.

5. GitHub Copilot "Workspace" para todos

GitHub ha abierto su entorno "Workspace" para todos los usuarios. Es un canvas donde puedes planificar tareas con lenguaje natural antes de tocar el código.

🔍 El detalle: Se integra con tus Issues de GitHub. Puedes decir "arregla el issue #402" y él te propone el plan de ataque.

🧠 Tutorial Exprés: Tu "Cerebro Local" para Navidad 🎅

Te vas al pueblo, a casa de tus padres o te subes a un avión. No hay internet (o es malísimo). ¿Dejas de programar? Jamás.

Vamos a configurar un entorno de IA potente y 100% offline.

Objetivo: Tener un asistente de código tipo GPT-4 pero corriendo en tu portátil, gratis y sin internet.

  1. Instala Ollama (si no lo tienes ya):

    Descárgalo en ollama.com. Es el estándar para correr modelos locales.

  2. Bájate el nuevo "Codestral" (versión optimizada):

    Abre tu terminal y ejecuta esto antes de salir de casa (necesitas internet para bajarlo):

    ollama run codestral:22b
    
    

    (Nota: Si tu ordenador es más modesto, usa ollama run qwen2.5-coder:7b, es una bestia pequeña).

  3. Conecta tu editor:

    • Si usas VS Code: Instala la extensión "Continue". En configuración, elige provider: Ollama y model: codestral:22b.

    • Si usas Cursor: Ve a Settings > Models > Add Local. Pon codestral:22b. Desactiva "Codebase Indexing" online.

  4. La Magia:

    Corta el WiFi. Escribe un comentario en tu código. Mira cómo se autocompleta.

    Felicidades, eres un Cyberpunk Nómada. Tienes la inteligencia de un cluster de GPUs corriendo en tu mochila.

Magic! 🪄

🏗️ Stack listo para shippear (Edición Offline / Nómada)

Este stack está pensado para desarrollar rápido, ligero y sin dependencias de nubes complejas. Ideal para proyectos de fin de año.

  • Brain: Ollama + Qwen 2.5 Coder (Local, rápido y listo).

  • Backend: PocketBase (Un solo archivo binario que es tu base de datos, auth y API. Lo corres local y vuela).

  • Frontend: Vite + React (Lo clásico funciona).

  • UI: Shadcn/ui (Como copias el código de los componentes en tu proyecto, no dependes de npm installs gigantes si ya lo tienes bajado).

  • Deploy (cuando vuelvas): Subes el binario de PocketBase y el build de Vite a un VPS de 5$ (Hetzner/DigitalOcean) y listo.

💡 Idea para las navidades:

Un "Gestor de Amigo Invisible Offline". Una app local donde metes los nombres, reglas (quién no puede regalar a quién) y genera el sorteo. Todo corre en el navegador del cliente o en tu PocketBase local.

¡Felices fiestas y buen código offline! ✈️

@gonzapico

Made with ❤️ (and lots of AI) from the 🇮🇨.

Keep Reading

No posts found