- Escala con IA
- Posts
- OpenAI lanza la familia GPT-4.1: ¡Más potencia para desarrolladores!
OpenAI lanza la familia GPT-4.1: ¡Más potencia para desarrolladores!
ADEMÁS: Exempleados de OpenAI se rebelan contra el cambio a 'modo con ánimo de lucro'

¡Buenos días! ¿Listos para lo nuevo de OpenAI? Parece que Sam Altman no bromeaba cuando dijo que esta semana venían "cositas buenas"... Y lo primero que nos lanzan es ¿un paso atrás? ¡Pero solo en el nombre! 😉
Acaban de presentar la familia GPT-4.1 (¿?), que viene cargada con ventanas de contexto de ¡un millón de tokens!, habilidades mejoradas para coding y, ojo al dato, precios bastante más bajos en general. Esto podría ser la base que necesitamos para esa era de desarrollo con agentes de IA que ya casi está aquí.
Esto es lo que debes saber acerca de AI:
🤖 La familia GPT-4.1 de OpenAI: ¡más power para desarrolladores!
🎥 Seaweed: La IA de video súper eficiente de ByteDance
🐬 La IA de Google que quiere descifrar el lenguaje de los delfines
📰 Y todo lo demás que pasó hoy en el mundo IA
La nueva familia GPT-4.1 de OpenAI, pensada para developers

Escala con IA: ¿Eres developer? Pues atento, que OpenAI acaba de sacar del horno GPT-4.1, una nueva familia de modelos pensada exclusivamente para vosotros y disponible solo vía API. ¿Lo mejor? Viene con mejoras brutales en coding, sigue instrucciones como nadie y puede procesar hasta 1 millón de tokens de contexto. ¡Casi nada!
Detalles:
La nueva alineación (solo vía API, recuerda) incluye GPT-4.1, 4.1 mini y 4.1 nano. Y ojo, que le dan mil vueltas a GPT-4o en tareas clave para developers.
Los tres modelos aguantan contextos de 1 millón de tokens. Para que te hagas una idea, eso es como meterle 8 codebases completos de React. Además, son un 26% más baratos que GPT-4o para las consultas típicas. ¡El bolsillo lo agradece!
También se notan las mejoras en tareas del mundo real, como el desarrollo frontend. Los evaluadores prefirieron las interfaces web creadas por el 4.1 el 80% de las veces frente a las de GPT-4o.
Los precios bajan en general: GPT-4.1 es un 26% más económico que GPT-4o, y el 4.1 nano se perfila como el modelo más rápido y barato de OpenAI hasta la fecha.
Por qué es importante: Vale, lo único que parece ir para atrás aquí es la originalidad de OpenAI para poner nombres (¿GPT-4.1? En serio...). Pero quitando eso, GPT-4.1 es un salto enorme para los devs. Con esa ventana de contexto gigante, precios más bajos y un enfoque más afinado, sienta las bases para el agentic coding (IA que programa de forma más autónoma, ¡imagínate!) y podría ser el aperitivo del rumoreado Agentic Software Engineer de la compañía. ¡Se viene fuerte!
Seaweed: la IA de vídeo súper eficiente de ByteDance

Escala con IA: ¿Recuerdas cuando generar vídeo con IA parecía cosa de gigantes tecnológicos con recursos ilimitados? Pues agárrate, porque ByteDance (sí, los de TikTok) acaban de presentar Seaweed, un modelo de generación de vídeo con "solo" 7 mil millones de parámetros que planta cara a pesos pesados como Kling 1.6, Google Veo y Wan 2.1. Y lo mejor: lo hace consumiendo muchos menos recursos computacionales. ¡Esto se pone interesante!
Detalles:
Seaweed no se anda con chiquitas: genera vídeo a partir de texto, imágenes e incluso audio (text-to-video, image-to-video, audio-driven synthesis), con resultados de hasta 20 segundos. ¡Ahí es nada!
En las evaluaciones humanas, se codea con los grandes y brilla especialmente en tareas de imagen a vídeo, superando ampliamente a modelos como Sora y Wan 2.1.
También se atreve con tareas complejas: narración en varias tomas (multi-shot storytelling), control de movimientos de cámara e incluso sincronización audio-visual. Como si dirigieras tu propia peli.
ByteDance comenta que Seaweed ha sido afinado para aplicaciones como animación de humanos, poniendo mucho foco en movimientos realistas y sincronización labial (lip syncing) (¡adiós, doblajes raros!)
Por que es importante: A ver, entre Wan (de Alibaba), Kling y ahora Seaweed de ByteDance, está claro que China está que se sale en esto del vídeo con IA. ¡Están dominando las listas! Además, este lanzamiento demuestra que no todo es cuestión de tamaño (¡aunque sea de ByteDance!). Se abre la puerta a modelos de vídeo casi state-of-the-art que son más eficientes y accesibles, democratizando la creatividad sin límites con modelos de vídeo casi SOTA (state-of-the-art) al alcance. ¡Prepara las palomitas!
La IA de Google para descifrar el lenguaje de los delfines

Escala con IA: ¿Alguna vez te has preguntado qué se contarán los delfines bajo el agua? Pues parece que Google sí. La compañía ha presentado DolphinGemma
, un modelo de IA especializado y diseñado para analizar y generar las vocalizaciones de los delfines. Lo han desarrollado en colaboración con investigadores de Georgia Tech con la idea de, quién sabe, descubrir por fin patrones en su comunicación. ¡Imagínate la que se puede liar!
Detalles:
DolphinGemma
aprovecha el modeloGemma
de Google y su tecnología de audio para procesar los sonidos que hacen los delfines. Para entrenarlo, han usado datos recopilados durante décadas por el Wild Dolphin Project. ¡Casi nada!El modelo de IA analiza secuencias de sonidos para identificar patrones y predecir los que vendrán después, algo parecido a cómo los
LLMs
(Large Language Models, o grandes modelos de lenguaje) procesan el lenguaje humano. Vamos, como cuando intentas adivinar el final de la frase de tu colega.Google también ha desarrollado un cacharro submarino llamado
CHAT
, basado en su móvilPixel 9
. Este dispositivo combina la IA con altavoces y micrófonos para intentar interactuar con los delfines en tiempo real. ¿Te ves pidiéndole indicaciones al próximo delfín que te cruces en la playa?El modelo se publicará como
open-source
(código abierto) este verano, para que investigadores de todo el mundo puedan adaptarlo y usarlo para estudiar distintas especies de delfines. ¡La ciencia es compartir!
Por qué es importante: A ver, seamos sinceros, los intentos anteriores de comunicarnos con delfines han sido... complicados, por decirlo finamente. Pero combinar décadas de investigación con la potencia de la IA moderna podría, por fin, abrir una ventanita para entender cómo se comunican estos bichos tan listos. Si DolphinGemma
funciona, podríamos estar abriendo nuevas fronteras en la comprensión de la inteligencia animal. ¡Crucemos las aletas!
El resto de noticias sobre IA de hoy
NVIDIA: Parece que se pone patriota y anunció su primera movida para fabricar IA made in USA. Se juntaron con gigantes como TSMC y Foxconn para empezar a producir chips y supercomputadoras en Arizona y Texas. ¡El Tío Sam quiere sus propios juguetes de IA!
OpenAI: Los rumores dicen que está por lanzar dos nuevos modelos esta semana. Prepárense para o3 y o4-mini, que al parecer podrán ¡generar ideas científicas nuevas y automatizar tareas de investigación de alto nivel! ¿Se viene el científico IA de bolsillo?
Amazon CEO Andy Jassy: El jefazo de Amazon publicó su carta anual a los accionistas (esa que leen mientras cuentan billetes) diciendo que la genAI "reinventará prácticamente cada experiencia de cliente que conocemos". O sea, prepárate para que hasta pedir papel higiénico sea una experiencia 'revolucionaria'.
Meta: Anunció que planea entrenar sus modelos de IA con el contenido público de los usuarios de la UE (¡sorpresa!). Ofrecen un formulario para que digas 'no, gracias' (opt-out) y recalcan lo importante que es meterle cultura europea a sus sistemas. A ver si así la IA aprende a hacer paella correctamente.
Hugging Face: No para: adquirió Pollen Robotics y presentó a Reachy 2, un robot humanoide open-source de 70.000 dólares (un caprichito, vamos) pensado para investigación y aplicaciones de embodied AI. ¿Lo veremos pronto sirviendo cafés?
LM Arena: Lanzó la Search Arena Leaderboard para ver qué LLM es el rey buscando cosas. De momento, Gemini-2.5-Pro de Google y Sonar de Perplexity se llevan la corona. ¡La batalla por quién encuentra mejor tus memes está que arde!
NATO: La OTAN le dio un contrato a Palantir por su Maven Smart System para potenciar las operaciones militares de EE. UU. con IA. Quieren desplegarlo en 30 días. Parece que la guerra del futuro ya no es solo cosa de películas.
¡Y eso es todo por hoy en nuestro resumen IA!
Hablando de crear asistentes IA, ¿se imaginan automatizar esas tareas repetitivas que nos quitan tiempo? Herramientas como n8n (y otras que exploraremos pronto en Escala con IA) nos permiten justamente eso: crear nuestros propios 'ayudantes' digitales para ser más productivos. ¡El futuro es ahora!
¡Espero que tengas un día genial y lleno de descubrimientos! ¡Nos leemos en la próxima edición de Escala con IA!
Mark, Parte del equipo de Escala con IA.