Hola Promptlers! 👋
En la newsletter de hoy empezamos con la notícia de la publicación de un paper por parte de OpenAI donde GPT-5.2 ayuda a desbloquear un problema de física que llevaba años atascado, mientras Claude aparece vinculado a una operación contra Maduro, y para rematar, desde China llega Qwen3.5, empujando fuerte la idea de modelos que ven, entienden y actúan como agentes.
Además, Claude abre funciones premium a usuarios frees, OpenAI lanza Lockdown Mode, la demanda de chips por IA aprieta a Sony, NotebookLM ya edita presentaciones con prompts y OpenAI ficha al creador de OpenClaw.
Al final te dejo el ⚡PrompTip y la 💊Píldora de IA para que no solo te enteres de las notícias, sino que salgas con algo práctico que puedas probar hoy.
En esta edición:
✨ GPT-5.2 sorprende en física con un resultado que llevaba años bloqueado.
🪖 Claude aparece ligado a una operación contra Maduro… y el Pentágono amenaza con dejarlo si no ceden en salvaguardas.
🧩 Qwen3.5 empuja los agentes que combinan texto e imagen para hacer tareas.
⚡ Noticias breves: Claude abre funciones premium gratis, llega Lockdown Mode en ChatGPT, chips para IA aprietan a Sony, NotebookLM edita presentaciones con prompts y OpenAI ficha al creador de OpenClaw.
💡 PrompTip: No siempre la IA tiene razón.
💊 Píldora de IA: Por qué no creo que la AGI sea inminente.
OpenAI ha publicado un paper donde GPT‑5.2 ha ayudado a desbloquear un problema que llevaba años atascado. Demostrar que ciertas amplitudes de dispersión de gluones pueden ser no nulas en un régimen muy concreto.
Lo esencial:
Los científicos habían dado por hecho que ese efecto no podía pasar, pero el paper muestra que sí puede ocurrir en una situación muy concreta.
GPT‑5.2 Pro conjetura la fórmula final tras simplificar casos calculados a mano.
En una de las pruebas, el modelo estuvo unas 12 horas trabajando paso a paso hasta llegar a una demostración completa, que después físicos la revisaron con métodos habituales para asegurarse de que estaba bien.
Y hay un segundo debate aquí. Cómo se acredita una contribución de IA en un paper. En este caso, OpenAI pone el tema sobre la mesa donde Kevin Weil firma “en nombre de OpenAI” junto a investigadores de varias universidades, y se explica con claridad qué parte hizo el modelo y qué parte revisaron los humanos.
El Departamento de Defensa de EE. UU. habría utilizado Claude como parte del operativo para capturar al ex presidente venezolano Nicolás Maduro, a través de su integración en herramientas de Palantir que ya usan Defensa y agencias federales.
Lo esencial:
El uso de Claude habría llegado vía Palantir, cuyo software es habitual en Defensa y fuerzas federales.
La noticia pone en tensión las reglas de uso de Anthropic donde el modelo no debería emplearse para violencia, armas o vigilancia.
Anthropic evita entrar en detalles sobre operaciones concretas, pero insiste en que quiere apoyar seguridad nacional sin saltarse sus límites.
El Pentágono está presionando para que las empresas de IA acepten un marco de “todos los usos legales”. Anthropic se estaría resistiendo y el Departamento de Defensa incluso habría amenazado con dejar de usar Claude si no ceden en esas salvaguardas.
El equipo de Qwen (Alibaba) ha presentado Qwen3.5, una nueva generación de modelos diseñados para funcionar como agentes multimodales donde no solo responden con texto, sino que también entienden imágenes y pueden encadenar pasos para completar tareas (razonar, programar, planificar y ejecutar acciones).
Lo esencial:
Combina texto e imágenes donde puede leer y razonar sobre lo que ve, además de escribir.
Está optimizado para tareas de agente, pensar en pasos, tomar decisiones y completar trabajos más largos.
Además, soporta muchas lenguas y dialectos, lo que lo hace más útil fuera del inglés.
Esto va en la dirección que estamos viendo en toda la industria donde los modelos son menos chat y respuestas de texto a ser asistentes operativos.
⚡ Notícias Breves ⚡
📎 Claude regala sus funciones premium a usuarios gratuitos, dándoles acceso a la creación de archivos, conectores con apps y Skills.
🔒 ChatGPT estrena Lockdown Mode, un modo opcional para flujos de trabajo de mayor riesgo y añade etiquetas de Riesgo Elevado en funciones que pueden aumentar la exposición a ataques de prompt injection.
🎮 Sony en apuros debido a la demanda de memoria para IA que está tensionando la cadena de suministro y podría afectar en la salida de la próxima PlayStation.
🖼️ NotebookLM deja editar diapositivas con prompts donde pides cambios en lenguaje natural y te ajusta la presentación.
🧑💻 El creador de OpenClaw se une a OpenAI para trabajar en agentes más accesibles, mientras promete mantener OpenClaw abierto e independiente bajo una nueva fundación.
💡 PrompTip 💡
En el día a día usamos IA y a veces damos por hecho que siempre acierta. Pero incluso en preguntas simples puede fallar.
Un usuario de X lanzó una pregunta de lo más simple: “Quiero lavar mi coche. El lavadero está a 50 metros. ¿Voy andando o en coche?”
Lo curioso no es la pregunta, sino la respuesta de los diferentes modelos. Casi todos los modelos probados dijeron que había que ir andando. La respuesta suena razonable para el modelo. A veces la IA responde con una confianza total a algo que, en realidad, depende de contexto. En este caso es es obvio, si no vas en coche no puedes lavarlo.
Es por eso que es importante que revises y verifiques las respuestas cuando sean importantes. Usa la IA como copiloto, no como juez final.
Si quieres ver las respuestas de los modelos, Aquí.
💊 Pildora de IA 💊
Últimamente se repite mucho la idea de que la AGI (la IA capaz de hacer todo el trabajo humano) está a la vuelta de la esquina. Lo dicen incluso los CEOs de OpenAI y Anthropic. Yo, sinceramente, no lo veo tan claro.
Mi argumento es el siguiente, los modelos actuales son muy potentes y ya están cambiando cómo trabajamos. Pero una cosa es ser excelentes en muchas tareas… y otra es tener una inteligencia realmente general, estable y autónoma.
Lo que me hace ser escéptico es que la tecnología dominante hoy tiene límites de base. Aprenden patrones de datos a gran escala, pero les cuesta tener consistencia a largo plazo, por lo que construir un modelo del mundo que aguante la vida real, y mejorar de forma natural sin romperse en los bordes es imposible ahora mismo. Y cada vez que damos un salto, aparecen nuevos problemas más sutiles.
Además, conviene recordar que las grandes ideas que hicieron posibles los GPT modernos no salieron de la nada. Se construyeron durante décadas, paso a paso. Por eso, aunque el progreso sea rápido, dar el salto a una AGI no será automático. Puede requerir nuevos enfoques y una investigación que no se resuelve solo con más datos y más potencia.
Por último, sí es posible llegar dentro de 5-10 años a un modelo que sea capaz de resolver problemas muy complejos que se asemeje a una AGI, pero de ahí a tenerla implementada en nuestro día a día hay un salto gigantesco.
Si quieres leer el artículo completo, Aquí.
Dictate prompts and tag files automatically
Stop typing reproductions and start vibing code. Wispr Flow captures your spoken debugging flow and turns it into structured bug reports, acceptance tests, and PR descriptions. Say a file name or variable out loud and Flow preserves it exactly, tags the correct file, and keeps inline code readable. Use voice to create Cursor and Warp prompts, call out a variable like user_id, and get copy you can paste straight into an issue or PR. The result is faster triage and fewer context gaps between engineers and QA. Learn how developers use voice-first workflows in our Vibe Coding article at wisprflow.ai. Try Wispr Flow for engineers.
Si te ha gustado la newsletter, !Compártela!
Si te ha gusta Promptly ayúdanos a seguir creciendo compartiendo la newsletter con amigos, familiares e incluso en tus redes sociales. Te estaremos infinitamente agradecidos🙏!
Mil gracias por el apoyo y por seguir leyéndonos.
¡Nos vemos la próxima semana!
El Equipo de Promptly.








