OpenAI le da un subidón de memoria a ChatGPT

ADEMÁS: La startup de IA de Mira Murati busca financiación récord.

¡Muy buenos días, gente de Escala con IA! ¿Alguna vez has sentido que le cuentas lo mismo a ChatGPT una y otra vez, como a ese amigo despistado? ¡Pues parece que OpenAI nos escuchó! Acaban de darle un boost de memoria gigante a ChatGPT. Ahora podrá recordar y usar información clave de todas nuestras conversaciones automáticamente, sin que se lo pidas cada dos por tres. ¿Será esta memoria persistente el empujoncito que faltaba para convertir a ChatGPT en ese asistente de IA verdaderamente personalizado que tanto esperamos? ¡Vamos a verlo!

Esto es lo que debes saber acerca de AI:

  •  🧠 OpenAI le da un boost de memoria a ChatGPT

  • 💰 La startup de IA de Mira Murati busca financiación récord

  •  🤖 Estudio: La IA todavía la lía con el debugging de software

  •  📰 Todo lo demás sobre IA que necesitas saber hoy

OpenAI le da supermemoria a ChatGPT

Escala con IA: ¿Harto de tener que explicarle lo mismo a ChatGPT una y otra vez? Pues se acabó el drama. OpenAI acaba de lanzar un update brutal para la memoria de ChatGPT. Ahora, el asistente de IA puede recordar y usar automáticamente información de todas tus conversaciones. Prepárate para respuestas mucho más personalizadas y que, de verdad, te sirvan para algo.

Detalles:

  • ChatGPT ahora 'escuchará' en todas tus conversaciones (sí, como ese amigo un poco cotilla pero útil), capturando tus preferencias, intereses, necesidades e incluso las cosas que no te molan.

  • Con toda esta info, el asistente ajustará sus respuestas para ti, haciendo que las charlas se sientan "notablemente más relevantes y útiles". Vamos, que idealmente dejará de preguntarte lo mismo mil veces.

  • A diferencia de antes, que tenías que pedirle explícitamente que recordara algo (un rollo, ¿verdad?), ahora el sistema lo hace solito, en automático.

  • Y si en algún momento quieres editar lo que ChatGPT sabe de ti, o borrarle la memoria selectivamente, solo tienes que decírselo en el chat con un prompt. Fácil, ¿no?

Por que es importante: Esta función es un antes y un después (game changer, que dicen los modernos) para los que usamos ChatGPT a tope y estábamos hasta el gorro de saltar entre chats o de repetirnos más que el ajo. La memoria ampliada de ChatGPT es solo el principio de un futuro emocionante donde los sistemas de IA realmente te conocerán con el tiempo, volviéndose cada vez más personalizados y útiles. ¡Imagínate las posibilidades!

Nota sobre privacidad: Que no cunda el pánico. Puedes desactivar esta función de memoria en los ajustes de ChatGPT o usar el modo de chat temporal para esas conversaciones que prefieres que se queden 'entre tú y la máquina', sin que se guarden.

La startup de IA de Mira Murati (ex OpenAI) busca romper récords de financiación

Escala con IA: Parece que las grandes ligas de la IA no descansan. Thinking Machines Lab, la nueva startup de Mira Murati (¿la recuerdas? Ex CTO de OpenAI) y otros veteranos de la compañía, estaría buscando una de las rondas de financiación seed (la primerita, la que te lanza al estrellato... o no) más grandes de la historia. ¡Casi nada!

Detalles:

  • Con casi la mitad del equipo fundador salido directamente de OpenAI (parece que hubo 'fuga de cerebros'), Thinking Machines Lab está negociando levantar 2.000 millones de dólares con una valoración de 'al menos' 10.000 millones. Sí, has leído bien.

  • Esta cifra es el doble de lo que Murati buscaba inicialmente, aunque ojo, que las cosas todavía pueden cambiar porque la ronda sigue su curso.

  • Murati lanzó esta aventura seis meses después de dejar OpenAI, donde pasó casi siete años metida de lleno en sistemas de IA, incluyendo nuestro viejo conocido ChatGPT.

  • Aunque todavía guardan muchos secretos (¡qué misterio!), parece que la idea de Thinking Machines es crear sistemas de IA "ampliamente comprensibles, personalizables y con capacidades generales". Suena bien, ¿verdad?

Por qué es importante: Entre la financiación récord de Thinking Machines Lab y la valoración de 30.000 millones de dólares de SSI (la empresa de Ilya Sutskever, otro ex OpenAI... ¿ves un patrón aquí?), la fiebre por invertir en IA sigue subiendo como la espuma. Lo más curioso, y aquí viene el giro, es que ambas startups están atrayendo inversiones millonarias sin tener todavía un producto público ni un plan claro de cómo van a generar ingresos. ¿Confianza ciega en el talento o la burbuja está a punto de explotar? Hagan sus apuestas.

Estudio: A la IA todavía le cuesta (y mucho) el 'software debugging'

Escala con IA: Oye, ¿te acuerdas de ese bug infernal que te tuvo despierto hasta las tantas? Pues parece que no eres el único que sufre. Resulta que Microsoft Research ha publicado un estudio que deja claro algo: los AI agents, incluso los que usan los modelos más top del momento, todavía se pelean bastante con las tareas de software debugging que los programadores humanos resolvemos casi con el café en la mano (bueno, a veces).

Detalles:

  • Para ponerlos a prueba, Microsoft usó nueve LLMs (sí, esos modelos de lenguaje gigantes), incluido el reciente Claude 3.7 Sonnet. Montaron un tinglado con un “agente basado en un único prompt” y le lanzaron 300 problemas de debugging sacados de SWE-bench Lite.

  • ¿El resultado? Pues que el pobre agente sudó tinta para completar la mitad de las tareas. Y ojo, que esto pasaba incluso usando como cerebro los modelos más punteros (frontier models), esos que se supone son unos cracks generando código.

  • Dándole algunas herramientas de debugging, el que mejor se portó fue Claude 3.7 Sonnet, resolviendo un 48.4% de los marrones. Le siguieron los modelos o1 y o3-mini de OpenAI con un 30.2% y 22.1% de éxito. No es para tirar cohetes, la verdad.

  • El equipo de Microsoft cree que esta diferencia se debe a que los LLMs no han 'visto' suficientes datos de cómo los humanos tomamos decisiones paso a paso al depurar (lo que llaman human debugging traces) durante su entrenamiento. Básicamente, les falta práctica viendo cómo arreglamos nosotros los desaguisados.

Por qué es importante: Mientras inversores y jefazos de Google, Meta y compañía siguen soltando miles de millones en AI coding agents (ayudantes de IA para programar), este estudio es como una ducha de agua fría, un 'oye, para el carro'. A pesar de lo mucho que han avanzado generando código, la IA todavía está muy verde en el debugging, que es una de las tareas más críticas (y a veces, más odiadas) de la programación. Vamos, que aún queda partido.

El resto de noticias sobre IA de hoy

Safe Superintelligence (SSI) de Ilya Sutskever se asoció con Google Cloud para usar los chips TPU de la compañía y potenciar su investigación y desarrollo. Vamos, que necesitan potencia de la buena.

El CEO de Google, Sundar Pichai, confirmó que la empresa adoptará el Model Context Protocol abierto de Anthropic para permitir que sus modelos se conecten a diversas fuentes de datos y aplicaciones. Más conexiones, ¿más caos o más inteligencia? Ya veremos.

Canva presentó Visual Suite 2.0, varias funciones de IA y un compañero creativo de IA activado por voz que genera contenido editable en Canva Create 2025. ¿Diseñar hablando? El futuro ya está aquí (y quizá nos deje sin excusas para no hacer esa presentación).

OpenAI contrademandó a Elon Musk, citando un patrón de acoso y pidiendo a un juez federal que le impida cualquier "acción ilegal e injusta adicional". La telenovela tech continúa...

OpenAI también hizo open-source BrowseComp, un benchmark que mide la capacidad de los AI agents para encontrar información difícil de localizar en internet. A ver si así aprenden a buscar mejor que nosotros a las 3 AM.

ByteDance, la matriz de TikTok, anunció Seed-Thinking-v1.5, un modelo de razonamiento de 200B (con 20B de parámetros activos) que supera a DeepSeek R1. Parece que no solo saben de vídeos virales.

La startup de IA de Elon Musk, xAI, puso disponible su modelo estrella Grok-3 a través de API, con precios desde $3 y $15 por millón de tokens de entrada y salida. ¿Listos para 'grokear' con la IA de Musk?

La empresa de IA Writer lanzó AI HQ, una plataforma completa para construir, activar y supervisar AI agents en el entorno empresarial. Para que los 'bots' trabajen bajo supervisión, que luego se descontrolan.

¡Y eso es todo por hoy en nuestro resumen IA!

¡Y eso es todo por hoy en Escala con IA! Parece que la memoria de elefante llega a nuestros asistentes virtuales. ¿Qué será lo próximo?

Mark, Parte del equipo de Escala con IA.