In partnership with

Hola Promptlers! 👋

En la newsletter de hoy arrancamos con Google, que no solo mete Lyria 3 en Gemini para generar música en segundos, sino que también sube el listón con Gemini 3.1 Pro, el modelo que impulsa sus últimas mejoras. Entre medias, Meta se asegura millones de chips de Nvidia para blindar su infraestructura de IA a varios años vista.

Además, OpenAI comparte una guía práctica para abaratar y acelerar prompts, Altman y Amodei vuelven a dejar claro que la rivalidad sigue viva, NotebookLM se integra en workflows de Opal, DuckDuckGo estrena edición de imágenes en Duck.ai y WordPress se suma con un asistente de IA dentro de su plataforma.

Al final te dejo el PrompTip y la 💊Píldora de IA para que no solo te enteres de las notícias, sino que salgas con algo práctico que puedas probar hoy.

En esta edición:

  • 🎵 Gemini suma música a su arsenal. Lyria 3 ya genera pistas de 30 segundos desde texto o imágenes, directamente en la app.

  • 🚀 Llega Gemini 3.1 Pro, el modelo que impulsa las mejoras recientes (y presume de un 77,1% en ARC-AGI-2).

  • 🏗️ Meta blinda su músculo de IA con un acuerdo multianual con Nvidia para asegurar chips y escalar su infraestructura a lo grande.

  • Noticias breves: OpenAI explica cómo ahorrar costes y latencia, Altman y Amodei escenifican la tensión, NotebookLM se integra en workflows de Opal, DuckDuckGo estrena edición de imágenes en Duck.ai, y WordPress lanza un asistente de IA dentro del editor.

  • 💡 PrompTip: Crea canciones en segundos con Google.

  • 💊 Píldora de IA: OpenAI tiene la atención… pero los gigantes tienen la ventaja.

Fuente: Google

Google ha integrado Lyria 3, su nuevo modelo de creación de canciones dentro de la app de Gemini, abriendo la puerta a crear canciones en cuestión de segundos. En esta beta, cualquier usuario puede generar pistas de 30 segundos simplemente describiendo un estilo, una escena o incluso subiendo una foto/vídeo para que la IA capte el estilo de la música que quieres.

Lo esencial:

  • Genera la letra automáticamente y permite pedirle la instrumental.

  • Tienes el control creativo del estilo, voces y tempo.

  • Las canciones llevan SynthID, una marca de agua imperceptible para identificar audio creado con IA.

Con este movimiento, Google convierte sigue aumentando las capacidades multimodales de Gemini, convirtiéndose en la IA más completa del momento.

Fuente: Google

Siguiendo con Google, ha presentado Gemini 3.1 Pro como el modelo que impulsa las mejoras recientes de Gemini 3, incluyendo todas las capacidades disponibles. La compañía ya ha empezado a desplegarlo en la app de Gemini, en las API de Gemini y NotebookLM.

Lo esencial:

  • Mejoras transversales de toda la multimodalidad de Gemini siendo Deep Think donde más se nota el salto.

  • Ventana de contexto de hasta 1M de tokens y salida de hasta 64K, para trabajar con documentos enormes de una sola vez.

  • Resultado de 77,1% en ARC-AGI-2, más del doble que el obtenido Gemini 3 Pro.

El ARC-AGI-2 es un benchmark de razonamiento abstracto con puzzles de patrones lógicos no memorizables pensado para medir la inteligencia fluida en tareas que suelen ser fáciles para humanos pero difíciles para la IA.

Fuente: NVIDIA

NVIDIA ha anunciado una alianza estratégica multianual con Meta para acelerar su hoja de ruta de IA con una infraestructura a gran escala. El acuerdo abarca el despliegue de CPUs NVIDIA y millones de GPUs Blackwell y Rubin, además de redes y software, con el objetivo de optimizar tanto entrenamiento como inferencia en los centros de datos de Meta.

Lo esencial:

  • Red de IA a gran escala con para mejorar la eficiencia y el rendimiento de Meta.

  • Computación confidencial para procesamiento privado en WhatsApp, reforzando la privacidad en funciones con IA.

  • Meta sale reforzada para volver a conectarse en la carrera de la IA.

Según NVIDIA, la infraestructura combinará GPUs y las CPUs con la la red Spectrum X Ethernet, junto con su stack de software para acelerar cargas de entrenamiento e inferencia.

⚡ Notícias Breves ⚡

💡 PrompTip 💡

💡Crea canciones en segundos con Google

Aquí te dejo el prompt de esta semana que te servirá para utilitzar Lyria 3 de Google y crear tus propias canciones.

Pega el siguiente Prompt (cópialo tal cual):

IDEA: [pega tu idea en 1–2 frases]

Estilo/Género: [pop electrónico / lo-fi / rock indie / reggaetón suave]
Mood: [ej. alegre / épico / melancólico / motivador]
Instrumentos clave: [3–5 instrumentos]
Voz: [instrumental] o [voz femenina/masculina] + idioma [ES/EN]

💊 Pildora de IA 💊

Fuente: Business Model Analyst

OpenAI hoy no compite desde una ventaja imposible de copiar. Sus modelos son muy buenos, sí, pero ya no son únicos, Google, xAI, Copilot entre otros, han alcanzado un nivel parecido y, sobre todo, tienen algo que OpenAI no tiene: distribución y producto pegado al día a día.

El problema es que una app tipo chatbot es, en el fondo, una caja de texto. Puedes mejorar el motor por detrás, pero para el usuario medio la diferencia se nota poco si no cambia el para qué lo usa. En resumen, OpenAI tiene una base enorme, pero el uso puede ser ancho, pero poco profundo.

Y aquí entra la parte más delicada. El valor real de la IA se va a capturar en experiencias nuevas (workflows, agentes, integraciones en tu día a día) que aún se están inventando. Si los incumbentes meten estas capacidades dentro de productos que ya usas cada día, OpenAI se ve obligada a correr el doble. Hacer modelos punteros, encontrar la interfaz ganadora y financiar una industria carísima sin el colchón de un negocio tradicional.

Si la IA se vuelve una commodity, la batalla se desplaza a quién controla el canal y el hábito. Y ahí, hoy, los gigantes juegan con ventaja.

Si quieres leer el artículo completo, Aquí.

Dictate prompts and tag files automatically

Stop typing reproductions and start vibing code. Wispr Flow captures your spoken debugging flow and turns it into structured bug reports, acceptance tests, and PR descriptions. Say a file name or variable out loud and Flow preserves it exactly, tags the correct file, and keeps inline code readable. Use voice to create Cursor and Warp prompts, call out a variable like user_id, and get copy you can paste straight into an issue or PR. The result is faster triage and fewer context gaps between engineers and QA. Learn how developers use voice-first workflows in our Vibe Coding article at wisprflow.ai. Try Wispr Flow for engineers.

Si te ha gustado la newsletter, !Compártela!

Si te ha gusta Promptly ayúdanos a seguir creciendo compartiendo la newsletter con amigos, familiares e incluso en tus redes sociales. Te estaremos infinitamente agradecidos🙏!

Mil gracias por el apoyo y por seguir leyéndonos.

¡Nos vemos la próxima semana!

El Equipo de Promptly.

Keep Reading