Los brogrammers descubren que generar más código no es lo mismo que escribir buen código - Edición 2026.09
OpenAI Codex es el primer paso hacia la superapp. Claude Design expande las capacidades de diseño. Perplexity lanza Personal Computer, su versión segura de OpenClaw.
Lo que hay que saber sobre…
INTELIGENCIA ARTIFICIAL
El fenómeno del “tokenmaxxing“ está generando una paradoja preocupante en el desarrollo de software: mientras los ingenieros celebran presupuestos masivos de tokens como símbolo de estatus, la productividad real se desploma. Herramientas como Claude Code, Cursor y Codex producen código a un ritmo sin precedentes, con tasas de aceptación inicial del 80-90%, pero la realidad oculta es alarmante. Estudios revelan que el código generado por IA requiere revisiones constantes, haciendo que la aceptación real caiga al 10-30%. Además se encontró que los ingenieros con mayores presupuestos de tokens logran solo el doble de productividad a diez veces el costo. Lo más polémico: las empresas miden inputs (tokens consumidos) en lugar de outputs de calidad, creando una cultura donde generar volumen se confunde con crear valor. — César
OpenAI actualizó significativamente su plataforma Codex, transformándola de un agente de codificación a una aplicación integrada que combina ChatGPT, Atlas y Codex. La nueva versión introduce uso de computadora en segundo plano que permite a Codex operar cualquier aplicación Mac de forma autónoma, con múltiples agentes trabajando en paralelo incluso en apps sin APIs. La función de memoria (en vista previa) retiene preferencias y contexto entre sesiones, mientras que las automatizaciones permiten a Codex retomar tareas de larga duración días después. El navegador integrado basado en Atlas permite a los desarrolladores comentar directamente en páginas para dar instrucciones precisas al agente. La generación de imágenes con gpt-image-1.5 ahora está disponible dentro de Codex, eliminando la necesidad de cambiar entre aplicaciones. Thibault Sottiaux, jefe de Codex, confirmó que OpenAI está “construyendo la superapp“, señalando que esta actualización representa el primer paso hacia una plataforma todo en uno. La empresa también lanzó más de 90 nuevos plugins que combinan habilidades, integraciones de apps y servidores MCP. — César
Anthropic presentó Claude Opus 4.7, su modelo de IA más avanzado disponible públicamente. Según los benchmarks, Opus 4.7 supera a GPT-5.4 y Gemini 3.1 Pro en tareas de codificación agentica, aunque sigue por detrás del Claude Mythos Preview que la empresa reserva para socios selectos. El modelo muestra mejoras significativas en ingeniería de software compleja, permitiendo a los desarrolladores delegar tareas difíciles que antes requerían supervisión cercana. Anthropic también implementó salvaguardas de ciberseguridad que detectan y bloquean automáticamente solicitudes de usos prohibidos o de alto riesgo. El modelo está disponible en todos los productos Claude, la API y a través de Amazon Bedrock, Google Vertex AI y Microsoft Foundry. — César
La llegada de Claude Opus 4.7 que incluye herramientas de diseño nativas capaces de generar sitios web, landing pages y presentaciones desde instrucciones en lenguaje natural. Este avance posiciona a Anthropic como competidor directo de Adobe y Figma, con un enfoque que elimina la necesidad de experiencia previa en diseño. — César
Alibaba ha publicado Qwen3.6-35B-A3B. La versión cuantizada Q4 cabe en una tarjeta gráfica de 24GB, permitiendo ejecución local en hardware accesible. En pruebas independientes, el modelo de 21GB ejecutado en un MacBook Pro superó a Claude Opus 4.7 en el benchmark de SVG. Diseñado específicamente para tareas de codificación agéntica, Qwen3.6-35B-A3B compite con modelos densos más grandes en planificación, razonamiento profundo y programación. egún análisis de mercado, proyectos que costaban 2000 euros mensuales con servicios como Gemini pueden reducirse a aproximadamente 50 euros usando este modelo, una disminución del 97.5%. El modelo está disponible en ModelScope y Hugging Face bajo licencia Apache 2.0. — César
Google ha lanzado una actualización de AI Mode en Chrome que permite abrir páginas web en una vista dividida junto a la conversación de IA. Esta función elimina el problema de “saltar entre pestañas” al mantener el contexto de búsqueda mientras se exploran resultados. Los usuarios pueden hacer clic en enlaces desde AI Mode y ver el contenido web al lado del panel de conversación, todo dentro de la misma pestaña. Además, Chrome introduce un menú “más” que permite incorporar contenido de pestañas abiertas, imágenes y archivos PDF directamente en las consultas de IA. La función aprovecha el 65% de cuota de mercado de Chrome en escritorio para establecer un nuevo estándar en navegación asistida por IA. — César
Perplexity ha presentado Personal Computer, un agente de IA que funciona 24/7 en un Mac Mini con acceso completo a archivos y aplicaciones locales. El sistema, descrito como un “proxy digital” para el usuario, combina acceso local con modelos de IA en la nube de Perplexity. Esto en un intento de posicionarse como una versión más segura de OpenClaw, ofreciendo un “rastro de auditoría completo” y capacidad para revertir acciones. El CEO Aravind Srinivas afirma que el producto podría ayudar a una sola persona a construir una empresa valorada en mil millones de dólares al superar la “desventaja más grande”: el sueño. Personal Computer requiere inscripción en lista de espera y está dirigido principalmente a uso profesional. El sistema incluye un “interruptor de emergencia” para detener operaciones si el agente se comporta de manera inesperada. — César
La pereza en programación no es indolencia, sino el impulso intelectual para crear abstracciones elegantes que simplifiquen sistemas complejos, optimizando el tiempo futuro a costa del esfuerzo presente. Los LLMs (modelos de lenguaje grandes) carecen de esta virtud fundamental porque para ellos el trabajo no tiene costo, lo que lleva a generar código innecesariamente extenso y complejo sin la restricción del tiempo humano. La cultura del “brogrammer“ ejemplificada por Garry Tan, quien se jacta de escribir 37,000 líneas de código diarias usando IA, es un enfoque que prioriza métricas vanidosas sobre la calidad del software. La limitación del tiempo humano es precisamente lo que nos obliga a desarrollar abstracciones claras y sistemas más simples, mientras que los LLMs, sin esa restricción, tienden a crear “capas de basura” que complican innecesariamente los sistemas. Los LLMs pueden ser herramientas valiosas si se usan para servir a nuestra pereza virtuosa, no para reemplazar el pensamiento crítico que produce software elegante y sostenible. — César
PRODUCTO DIGITAL
Netflix confirmó en su carta a accionistas del primer trimestre de 2026 un rediseño completo de su aplicación móvil que introduce un feed de video vertical estilo TikTok. La actualización se lanzará a finales de abril según la documentación oficial. Este cambio representa la mayor renovación de interfaz móvil de la compañía hasta la fecha y apunta directamente a patrones de consumo mobile-first. Los datos internos muestran que los podcasts de video ya “sobre-indexan” en dispositivos móviles, lo que impulsó la decisión estratégica. El feed vertical funcionará como capa de descubrimiento, mostrando avances y clips navegables del catálogo completo, no solo contenido cómico como en el anterior sistema Fast Laughs. — César
CRYPTO
El Ministerio de Economía y Finanzas de Corea del Sur ha designado un piloto de pagos del tesoro basado en tokens de depósito como proyecto de sandbox regulatorio para 2026. Este proyecto permitirá que los tokens de depósito basados en blockchain se utilicen en lugar de tarjetas de compra gubernamentales para pagos de gastos operativos. La hoja de ruta apunta a que los tokens de depósito manejen aproximadamente el 25% de los pagos del tesoro nacional para 2030, lo que convierte a este piloto en uno de los despliegues de pagos tokenizados a nivel gubernamental más concretos en el mundo. El piloto, que se lanzará en el cuarto trimestre de 2026 en la ciudad de Sejong, elimina intermediarios como redes de tarjetas, lo que potencialmente reduce las tarifas de transacción para pequeñas empresas. — César
También nos puedes seguir en LinkedIn o visitar nuestra web: indexante.com
Cada fin de semana, César Soplín, Pedro Rivas y José Kusunoki seleccionan lo más relevante sobre inteligencia artificial, CX, tecnología, startups, medios online, economía del creador y producto digital.


