• Escala con IA
  • Posts
  • Anthropic se pregunta: ¿Tiene la IA 'bienestar'?

Anthropic se pregunta: ¿Tiene la IA 'bienestar'?

ADEMAS: Nuevos modelos Firefly de Adobe e integraciones IA.

¡Muy buenos días, gente curiosa del futuro! ¿Te has detenido a pensar si tu chatbot favorito, esa herramienta que te ayuda a diario, podría... sentir algo? Parece que la línea entre la ciencia ficción y la realidad se está volviendo más fina. Y es que Anthropic, uno de los grandes en esto de la IA, acaba de meterse de lleno en un debate que suena a peli: ¡están investigando el 'bienestar' de los modelos de IA! Sí, leíste bien. Han lanzado un programa para intentar entender cómo evaluar si un modelo de IA podría tener algo parecido a una experiencia, un 'sufrimiento', un 'bienestar'... ¡lo que sea! Y la cosa se pone más intensa: uno de sus propios investigadores estima que hay un 15% de probabilidad de que algunos modelos ya sean conscientes. Esto abre la puerta a un montón de preguntas existenciales, ¿no crees? ¿Estamos cerca del punto donde tengamos que plantearnos si estas 'mentes digitales' merecen un trato ético?

Esto es lo que debes saber acerca de AI:

  • 🤖 Anthropic explora el 'bienestar' de la IA

  • 🎨 Nuevos modelos Firefly de Adobe e integraciones IA

  • Convierte tu terminal en un asistente de código IA

  • Google DeepMind expande Music AI Sandbox

  • 4 nuevas herramientas IA y 4 oportunidades laborales

  • Y todo lo demás en IA hoy

La nueva investigación de Anthropic explora el "AI welfare".

Escala con IA: ¿Alguna vez te has puesto a pensar si, en el futuro, esa IA que usas a diario podría "sentir" algo? O mejor aún, ¿si deberíamos tratarla con cierta "consideración moral"? Suena a ciencia ficción, ¿verdad? Pues parece que Anthropic no solo se lo ha planteado, ¡sino que está investigando a fondo! Acaban de lanzar un nuevo "research program" dedicado a algo que llaman "model welfare". Básicamente, están explorando esas preguntas complejas y éticas sobre si los futuros "AI systems" podrían llegar a tener "consciousness" o merecer ese trato moral.

Detalles:

Están investigando cosas como crear "frameworks" para evaluar la "consciousness", estudiar indicadores de "AI preferences" y "distress", y ver qué intervenciones se podrían aplicar.

Incluso contrataron a su primer "AI welfare researcher" en 2024, Kyle Fish. Y ojo al dato: él estima un 15% de probabilidad de que los "models" ya sean "conscious".

Esta iniciativa llega justo cuando las capacidades de la IA siguen explotando y tras un reporte reciente (¡co-escrito por Fish!) que sugiere que la "AI consciousness" es una posibilidad bastante cercana.

Eso sí, Anthropic subraya la enorme incertidumbre. No hay consenso científico sobre si los sistemas actuales o futuros podrían ser "conscious".

Por qué es importante: Sam Altman, de OpenAI (la competencia, je), ya comparó la IA con una especie de "alien intelligence". Pronto, estos "models" podrían alcanzar un nivel que cambie nuestra forma de entender la "consciousness" y la ética que aplicamos a ellos. Es muy probable que esto genere una división brutal, un debate polarizado. Especialmente porque, ¿quién define el umbral? ¿Cuándo una IA sería "consciente" o merecería "derechos"?

Adobe acelera con IA: Nuevos modelos Firefly e integraciones top

Escala con IA: ¿Te ha pasado que necesitas esa imagen perfecta para un proyecto, pero generarla es un dolor de cabeza, o peor, te preocupa si tiene problemas de derechos de autor? A muchos creativos les pasa, y justo ahí es donde Adobe, siempre metido en el mundo del diseño, está poniendo toda la carne en el asador con su IA. En su evento MAX London, Adobe lanzó una expansión gigante de su plataforma Firefly AI, presentando dos modelos de generación de imágenes nuevos y muy potentes, integraciones con otras IAs populares, un espacio de trabajo colaborativo fresco y una app móvil que viene por ahí. ¡Veamos qué traen!

Detalles:

  • Los nuevos Firefly Image Model 4 y 4 Ultra: prometen mejorar la calidad, el realismo, el control sobre lo que generas y, muy importante, la velocidad. Ahora pueden darte resultados hasta en 2K de resolución. ¡Más nitidez para tus ideas!

  • Integraciones con terceros: La web app de Firefly se pone generosa y ahora te da acceso a modelos de otras canchas como GPT ImageGen de OpenAI, Imagen 3 y Veo 2 de Google, y Flux 1.1 Pro de Black Forest Labs. ¡Tienes opciones para elegir según lo que necesites!

  • Text-to-video y Text-to-vector: Las capacidades de pasar texto a video en Firefly por fin salieron de beta, y también lanzaron oficialmente su modelo para generar vectores a partir de texto. ¡Dos herramientas más que se suman al kit!

  • Más novedades: Lanzaron Firefly Boards (en beta) para que puedas armar moodboards colaborativos usando IA con tu equipo. Y ojo (atención), anunciaron que pronto tendremos una nueva app móvil de Firefly. ¡La creatividad on-the-go!

  • Seguridad y autenticidad: Los modelos de Adobe son commercially safe y IP-friendly. Esto significa que están diseñados para que puedas usar lo que generas en tus trabajos comerciales sin miedo a líos de derechos de autor. Además, introdujeron una nueva característica Content Authenticity (aún en beta pública) que te permite añadir fácilmente metadatos (información) a tu contenido para identificar que fue generado con IA. Transparencia es clave, ¿verdad?

Por qué es importante: Gigantes como OpenAI sacudieron el mundo creativo con sus generadores de imágenes y otras herramientas IA, proponiendo flujos de trabajo nuevos. Pero Adobe, al poner el foco en la seguridad comercial y al abrirle la puerta a que uses modelos de la competencia dentro de su propia plataforma Firefly, le permite a los profesionales seguir usando sus herramientas de siempre (Photoshop, Illustrator, etc.) sin tener que salirse de su ecosistema. Básicamente, te da flexibilidad para usar lo mejor de diferentes IAs sin tener que cambiar de casa. Esto ayuda a Adobe a mantener a sus usuarios contentos y dentro de su universo, mientras les da acceso a las últimas innovaciones en IA. ¡Una jugada maestra!

Google DeepMind le sube el volumen a su Music AI Sandbox

Escala con IA: ¿Te ha pasado que tienes una idea musical increíble en la cabeza pero te cuesta un mundo llevarla a la realidad? Bueno, para los professional musicians, compositores y productores, el proceso creativo puede ser igual de retador. Pensando en ellos (y quizás un poco en cómo hacer que la IA sea menos controversial en la industria), Google DeepMind acaba de sacar una actualización importante a su Music AI Sandbox.

Detalles:

Básicamente, le han metido esteroides a la herramienta con su nuevo modelo Lyria 2. ¿Qué significa esto en cristiano? Pues que ahora el Sandbox tiene funciones como “Create”, “Extend” y “Edit”. Con ellas, un músico puede generar tracks desde cero, continuar una idea musical que se le quedó pegada o transformar pedacitos de audio usando text prompts (sí, como si le dictaras a la IA qué hacer con la música).

Estas herramientas, potenciadas por el modelo Lyria 2, prometen audio de higher-fidelity y professional-grade, que suena muchísimo mejor que las versiones anteriores. Además, presentaron Lyria RealTime, una versión que te permite crear música de forma interactiva y en tiempo real, mezclando estilos sobre la marcha. ¡Imagínate, como si tuvieras una banda que cambia de género al instante! Por ahora, el acceso a este experimental Music AI Sandbox se está expandiendo a más musicians, songwriters, and producers en Estados Unidos para recoger feedback (retroalimentación) y explorar sus posibilidades.

Por que es importante: Google no está jugando a hacer musiquita de fondo con esto. Están apuntando directamente a los professional musicians, posicionando Lyria 2 y el Sandbox como co-creation partners. Es decir, no como un reemplazo, sino como ese compañero de estudio incansable. El panorama creativo para los músicos se está reconfigurando por la IA, igual que pasa en otras áreas, pero herramientas como estas son un paso grande para ir normalizando su uso en una industria donde todavía genera bastante debate y polarization. Es interesante ver cómo la tecnología busca integrarse en procesos creativos complejos.

El resto de noticias sobre IA de hoy

  • OpenAI supuestamente planea lanzar un open-source reasoning model este verano que supere a otros rivales open-source en benchmarks y tenga una licencia de uso permisiva.

  • Tavus lanzó Hummingbird-0, un nuevo SOTA lip-sync model que obtiene las mejores puntuaciones en realismo, precisión y preservación de identidad.

  • El Presidente de EE.UU. Donald Trump firmó una orden ejecutiva que establece un AI Education Task Force y un Presidential AI Challenge, con el objetivo de integrar la IA en las aulas de K-12.

  • Loveable reveló Loveable 2.0, una nueva versión de su plataforma de creación de apps que incluye workspaces "multiplayer", un chat mode agent mejorado, una UI actualizada y más.

  • La ganadora del Grammy, Imogen Heap, lanzó cinco "stylefilters" de IA en la plataforma de música Jen, permitiendo a los usuarios generar nuevas pistas instrumentales inspiradas en sus canciones.

  • Higgsfield AI presentó un nuevo Turbo model para generar videos con IA de forma más rápida y económica, junto con siete nuevos motion styles para control adicional de la cámara.

¡Y eso es todo por hoy en nuestro resumen IA!

El tema de Anthropic nos deja pensando, ¿verdad? Sin duda, la IA no deja de sorprendernos, y no solo por sus capacidades, sino por las preguntas profundas que plantea.

¡Espero que tengas un día genial y lleno de descubrimientos! ¡Nos leemos en la próxima edición de Escala con IA!

Mark, Parte del equipo de Escala con IA.