miércoles, 12 de noviembre de 2025

Google Maps presenta herramientas de IA para simplificar el desarrollo de aplicaciones.




Google Maps anunció un conjunto de herramientas de desarrollo impulsadas por IA el 9 de noviembre, incluyendo un agente constructor que convierte instrucciones en lenguaje natural en prototipos de mapas interactivos y un servidor Model Context Protocol que conecta asistentes de IA con documentación técnica.


El agente constructor permite a los desarrolladores describir proyectos basados en mapas en texto simple—como "crear un recorrido de Street View de una ciudad" o "visualizar el clima en tiempo real en mi región"—y genera automáticamente código funcional que puede exportarse a Firebase Studio.


Grunding Lite

Google presentó Grounding Lite, que permite a los desarrolladores fundamentar sus modelos de IA con datos de Maps utilizando el Model Context Protocol. Esta función permite a los asistentes de IA responder consultas basadas en ubicación con respuestas precisas y fundamentadas en mapas.


Contextual View


La compañía lanzó Contextual View, un componente de bajo código que proporciona respuestas visuales en formatos de lista, mapa o 3D basadas en las consultas del usuario.


Herramientas de Estilo y Soporte para Desarrolladores


La actualización incluye un agente de estilización que crea diseños de mapas personalizados alineados con los colores y temas de marca. El servidor MCP se conecta directamente a la documentación de Google Maps, permitiendo a los desarrolladores hacer preguntas en lenguaje natural sobre el uso de la API y recibir respuestas contextuales.



sábado, 8 de noviembre de 2025

OpenAI planea servicio en la nube para rivalizar con Microsoft y Google



El CEO de OpenAI, Sam Altman, señaló esta semana la intención de la compañía de ingresar al mercado de computación en la nube, marcando un cambio estratégico dramático que podría poner al líder de inteligencia artificial en competencia directa con sus socios más cercanos.

En una publicación en X el 6 de noviembre, Altman escribió que OpenAI está "buscando formas de vender más directamente capacidad de cómputo a otras empresas (y personas)", añadiendo que la compañía está "bastante segura de que el mundo va a necesitar mucha 'nube de IA', y estamos emocionados de ofrecer esto". El anuncio llega mientras OpenAI lidia con cómo financiar aproximadamente $1.4 billones en compromisos de infraestructura que ha firmado durante los próximos ocho años.

De Consumidor a Proveedor

El movimiento transformaría a OpenAI de uno de los mayores consumidores de servicios en la nube del mundo en un proveedor que compite contra Amazon Web Services, Microsoft Azure y Google Cloud Platform, que en conjunto controlan aproximadamente el 62 por ciento del mercado global de infraestructura empresarial en la nube. AWS posee aproximadamente el 29 por ciento de participación de mercado, seguido por Microsoft con el 20 por ciento y Google Cloud con el 13 por ciento.​

La perspectiva de que OpenAI se convierta en proveedor de servicios en la nube ganó credibilidad a partir de comentarios anteriores de la directora financiera Sarah Friar, quien dijo en septiembre que los socios en la nube han estado "aprendiendo a nuestra costa". "A medida que ayudamos a nuestros socios a diseñar el centro de datos de IA, mientras aprenden, mientras entrenamos en esos centros de datos o incluso mientras hacemos inferencia... ellos están, a veces lo pienso como que están aprendiendo un poco a nuestra costa", dijo Friar en una conferencia de Goldman Sachs.​

Bajo la asociación reestructurada con Microsoft anunciada en octubre, las solicitudes de API sin estado de OpenAI permanecerán exclusivamente en Azure hasta 2030, a menos que un panel de expertos independientes determine que se ha logrado la inteligencia artificial general. Sin embargo, otros productos de OpenAI, incluido ChatGPT, ahora pueden distribuirse a través de múltiples plataformas. OpenAI se ha comprometido a comprar $250 mil millones adicionales en servicios de Azure, aunque Microsoft ya no posee el derecho de primera negativa como proveedor de cómputo de OpenAI.


Las Presiones Financieras Impulsan la Estrategia

OpenAI espera terminar 2025 con más de $20 mil millones en ingresos anualizados y proyecta un crecimiento a cientos de miles de millones para 2030. La compañía recientemente firmó un acuerdo de nube de $38 mil millones a siete años con Amazon, marcando su primera asociación importante de infraestructura fuera de Microsoft desde la renegociación de su acuerdo. OpenAI también ha asegurado compromisos masivos con Oracle ($300 mil millones), Nvidia ($100 mil millones) y AMD ($90 mil millones).​

Convertirse en proveedor de nube podría ayudar a OpenAI a monetizar sus masivas inversiones en infraestructura mientras reduce la dependencia de socios que eventualmente podrían competir contra ella. A escala, los negocios de nube generan ingresos recurrentes sustanciales—AWS por sí sola tiene una tasa de ingresos anuales de $132 mil millones.

Google lanza el chip Ironwood para desafiar a Nvidia.



Google lanzó Ironwood, su Unidad de Procesamiento Tensor de séptima generación, esta semana con especificaciones de rendimiento que la ponen en competencia directa con la arquitectura Blackwell de Nvidia. El chip estará disponible de manera general para clientes de la nube en las próximas semanas, marcando una escalada en el esfuerzo del gigante tecnológico por reducir su dependencia de GPUs de terceros mientras captura una mayor participación del floreciente mercado de infraestructura de IA.​

Ironwood ofrece hasta 10 veces el rendimiento máximo de la TPU v5p de Google y más de cuatro veces el rendimiento por chip en comparación con su predecesora, la TPU v6e, también conocida como Trillium. Cada chip proporciona 4,614 teraflops FP8 de rendimiento y está equipado con 192 GB de memoria HBM3E, ofreciendo un ancho de banda de hasta 7.37 TB/s. El sistema puede escalar hasta 9,216 chips en un solo pod, entregando 42.5 exaflops FP8 de potencia de cómputo—aproximadamente 118 veces más que los sistemas competidores, según la documentación técnica de Google


Grandes Clientes Señalan Cambio en el Mercado

Anthropic, la startup de IA detrás de los modelos Claude, anunció a finales de octubre que planea implementar hasta un millón de TPUs como parte de una expansión histórica de su asociación con Google Cloud. El acuerdo, valorado en decenas de miles de millones de dólares, proporcionará a Anthropic acceso a más de un gigavatio de capacidad informática que entrará en funcionamiento en 2026. Krishna Rao, director financiero de Anthropic, dijo que la capacidad ampliada "garantiza que podamos satisfacer nuestra demanda en crecimiento exponencial mientras mantenemos nuestros modelos a la vanguardia de la industria".​

Lightricks, conocida por sus herramientas de software creativo, también está utilizando Ironwood para entrenar su modelo multimodal LTX-2, que combina entradas de texto e imagen. Google mismo utiliza TPUs para entrenar e implementar sus modelos de IA de frontera, incluyendo Gemini, Veo e Imagen.


La carrera por la infraestructura se intensifica

El lanzamiento de Ironwood destaca una competencia cada vez más intensa entre los proveedores de la nube por ofrecer infraestructura de IA diferenciada más allá de las GPU dominantes de Nvidia. Google está aumentando sus gastos de capital a entre $91 mil millones y $93 mil millones en 2025, por encima de una proyección anterior de $85 mil millones, con la mayoría de los fondos dirigidos hacia la infraestructura de IA. El CEO Sundar Pichai dijo a los analistas el mes pasado que la compañía ha firmado más acuerdos por más de $1 mil millones hasta el tercer trimestre de 2025 que en los dos años anteriores juntos.​

Google Cloud reportó un crecimiento interanual de ingresos del 34% en el tercer trimestre, alcanzando los $15.15 mil millones. Pichai atribuyó las ganancias a "una demanda sustancial de nuestros productos de infraestructura de IA, incluidas las soluciones basadas en TPU". La cartera de proyectos pendientes de la nube de la compañía creció un 46% trimestre a trimestre, alcanzando los $155 mil millones.​

Junto a Ironwood, Google presentó nuevos procesadores Axion basados en Arm, incluyendo la máquina virtual N4A y la instancia C4A bare metal. La N4A ofrece hasta el doble de precio-rendimiento que las máquinas virtuales comparables basadas en x86, según informó la compañía.

China afirma haber logrado un avance en la energía satelital para armas de rayos de partículas.



Científicos chinos afirman haber superado un desafío de ingeniería fundamental que ha obstaculizado las armas de haz de partículas basadas en el espacio durante décadas, según un informe publicado esta semana. El avance involucra un sistema de energía satelital capaz de suministrar megavatios de energía con precisión a nivel de nanosegundos, lo que marca un potencial avance en la tecnología de armas de energía dirigida.


El Poder se Encuentra con la Precisión


El desarrollo aborda lo que los investigadores describen como un dilema fundamental en el armamento de haces de partículas: los sistemas de alta potencia que entregan megavatios de energía tradicionalmente han sido demasiado lentos para controlar, mientras que los sistemas ultraprecisos capaces de sincronización de microsegundos y nanosegundos no podían manejar ráfagas de energía masivas. Según el South China Morning Post, los pulsos de energía deben permanecer sincronizados con errores no mayores a millonésimas o millmillonésimas de segundo, o el haz pierde el enfoque y el arma falla.


"Alta potencia y alta precisión generalmente no van juntas", afirmó el informe, señalando que los ingenieros históricamente se han visto obligados a elegir entre potencia bruta y control fino. Los científicos chinos ahora afirman haber resuelto este compromiso, aunque los detalles técnicos sobre el sistema siguen siendo limitados.


El anuncio se produce mientras China expande rápidamente sus capacidades de armas espaciales. Según una investigación de CNN publicada esta semana, más del 60% de 136 sitios vinculados a la producción de misiles de China han mostrado crecimiento desde 2020, con más de 21 millones de pies cuadrados de nueva construcción. La Fuerza Espacial de EE.UU. informó en su última evaluación de amenazas que China opera más de 1,189 satélites a julio de 2025, incluidos más de 510 sistemas de inteligencia y vigilancia.


Implicaciones Estratégicas


El ejército estadounidense está respondiendo al creciente arsenal antiespacial de China mediante el despliegue de nuevos sistemas de interferencia satelital. Funcionarios de la Fuerza Espacial confirmaron esta semana que están desplegando armas Meadowlands y Remote Modular Terminal, diseñadas para interrumpir los satélites de reconocimiento chinos y rusos. El general Chance Saltzman, Jefe de Operaciones Espaciales, testificó recientemente que la acumulación de armas espaciales por parte de China, incluyendo láseres terrestres y misiles antisatélite, constituye una "grave amenaza" para las fuerzas estadounidenses.


Las armas de haz de partículas, que aceleran partículas atómicas o subatómicas a velocidades cercanas a la de la luz, han sido perseguidas por las principales potencias desde la década de 1980. El Pentágono probó un prototipo de haz de partículas neutras a bordo de un cohete suborbital en 1989, pero archivó el programa debido a restricciones de peso y energía. El atractivo de la tecnología radica en su capacidad para penetrar objetivos más profundamente que los láseres, potencialmente encendiendo suministros de combustible o destruyendo componentes electrónicos.

martes, 21 de octubre de 2025

IonQ logra récord en computación cuántica con una fidelidad de compuerta del 99.99%



IonQ logró un avance revolucionario con una fidelidad de puerta de dos qubits del 99.99% el 21 de octubre de 2025, convirtiéndose en la primera empresa de computación cuántica en cruzar el codiciado punto de referencia de "cuatro nueves" y estableciendo un nuevo récord mundial en rendimiento de computación cuántica. Este hito, demostrado utilizando la tecnología patentada de Control Electrónico de Qubits de la compañía, supera el récord anterior del 99.97% y posiciona a IonQ años por delante en la carrera hacia la computación cuántica tolerante a fallos.​


Método revolucionario de "Compuerta Suave" elimina la necesidad de enfriamiento al estado fundamental

El logro récord proviene del novedoso método de "compuerta suave" de IonQ, detallado en un artículo técnico publicado el 19 de octubre de 2025. A diferencia de los enfoques tradicionales que requieren un enfriamiento al estado fundamental costoso y que consume mucho tiempo, la técnica de compuerta suave opera eficazmente a temperaturas por encima del límite Doppler mientras mantiene una precisión sin precedentes. Los investigadores lograron un error de compuerta estimado de solo 8.4 × 10⁻⁵ sin enfriamiento al estado fundamental, lo que representa una mejora de aproximadamente 100 veces sobre los métodos anteriores que operan a temperaturas similares.​

El avance permite operaciones cuánticas con tasas de error que permanecen por debajo de 5 × 10⁻⁴ incluso para iones con números de ocupación de fonones promedio de hasta 9.4, demostrando una notable robustez en diversas condiciones térmicas. "Esta es, según nuestro conocimiento, la compuerta de dos qubits de mayor fidelidad jamás demostrada en cualquier modalidad de computación cuántica," señaló el equipo de investigación.​

La tecnología de Control Electrónico de Qubits de IonQ reemplaza los controles tradicionales basados en láser con electrónica de precisión integrada en chips semiconductores, permitiendo la fabricación en masa a través de procesos de fabricación existentes. Este enfoque reduce significativamente los costos mientras mejora la escalabilidad y la estabilidad operacional.​


Ganancias Dramáticas de Rendimiento e Implicaciones Comerciales

El umbral de fidelidad del 99.99% desbloquea capacidades transformadoras para aplicaciones de computación cuántica. Según IonQ, los clientes pueden esperar un aumento de rendimiento de 10 mil millones de veces sobre sistemas que operan con el estándar de oro anterior del 99.9% de fidelidad en hardware idéntico. Esta mejora exponencial reduce los requisitos de corrección de errores y permite la ejecución de algoritmos complejos previamente imposibles en sistemas cuánticos.​

"Alcanzar una fidelidad de cuatro nueves es un momento decisivo para el liderazgo cuántico de IonQ," dijo el CEO Niccolo de Masi. "Este nivel de rendimiento cuántico ha sido la estrella del norte de la industria durante décadas y cruzarlo acerca los sistemas cuánticos tolerantes a fallos años más cerca de la adopción masiva en el mercado".​

El logro forma la base para los sistemas de 256 qubits planificados por IonQ, programados para demostración en 2026, apoyando en última instancia la hoja de ruta de la compañía para escalar a millones de qubits para 2030. Estos avances se basan en el hito reciente de IonQ de lograr un rendimiento #AQ 64 tres meses antes de lo programado en septiembre de 2025.​

A pesar del avance técnico, las acciones de IonQ cerraron con una caída del 4.77% a $59.94 el día del anuncio, reflejando las preocupaciones continuas del mercado sobre la reciente oferta de capital de $2 mil millones de la compañía y los efectos de dilución. Sin embargo, la acción ha ganado un 79.6% en lo que va del año, cotizando cerca de su máximo de 52 semanas.

DeepSeek presenta modelo OCR con compresión de texto 20x.




La compañía china de IA DeepSeek presentó DeepSeek-OCR el lunes, un modelo de IA multimodal de código abierto que logra una compresión de texto de hasta 20 veces manteniendo un 97% de precisión, marcando un avance significativo en la eficiencia del procesamiento de documentos para sistemas de IA.​

Avance en la Compresión de Texto Visual


El modelo de visión-lenguaje de 3 mil millones de parámetros aprovecha un enfoque innovador que trata el texto como imágenes para la compresión, permitiendo que los sistemas de IA procesen documentos masivos sin aumentos proporcionales en los costos computacionales. Según el documento técnico de DeepSeek, el modelo puede comprimir texto hasta 10 veces manteniendo el 97% de la información original, con un rendimiento útil incluso en proporciones de compresión de 20x.​

"A través de DeepSeek-OCR, demostramos que la compresión visión-texto puede lograr una reducción significativa de tokens – de siete a 20 veces – para diferentes etapas de contexto histórico, ofreciendo una dirección prometedora para abordar los desafíos de contexto largo en LLMs," declaró la compañía con sede en Hangzhou.​

El sistema procesa más de 200,000 páginas diariamente en una sola GPU Nvidia A100, con un rendimiento que alcanza 33 millones de páginas por día utilizando 20 servidores equipados con ocho A100s cada uno. Esta capacidad de procesamiento supera con creces los métodos OCR tradicionales, que típicamente requieren miles de tokens para tareas similares.​

Arquitectura Técnica y Rendimiento


DeepSeek-OCR consta de dos componentes principales: DeepEncoder para el procesamiento de imágenes y DeepSeek3B-MoE-A570M como decodificador. El codificador combina el SAM (Segment Anything Model) de 80 millones de parámetros de con el CLIP de 300 millones de parámetros de OpenAI, utilizando un compresor 16x que reduce una imagen de 1.024 píxeles de 4.096 tokens a solo 256 tokens.​

En pruebas comparativas en OmniDocBench, DeepSeek-OCR superó a GOT-OCR 2.0 utilizando solo 100 tokens de visión en comparación con 256, y superó a MinerU 2.0 con menos de 800 tokens frente a más de 6.000 tokens por página. El modelo admite aproximadamente 100 idiomas y puede procesar varios tipos de documentos, desde presentaciones simples que requieren 64 tokens hasta periódicos complejos que necesitan hasta 800 tokens en "modo Gundam".​

DeepSeek entrenó el sistema utilizando 30 millones de páginas PDF en aproximadamente 100 idiomas, incluyendo diagramas sintéticos, fórmulas químicas y figuras geométricas. El modelo ya está disponible en Hugging Face y GitHub bajo la licencia MIT, continuando con el compromiso de DeepSeek con el desarrollo de IA de código abierto que previamente ha revolucionado la industria con alternativas rentables a los modelos de OpenAI.

Apoya por favor es sitio y difundelo, gracias.


Related Posts Plugin for WordPress, Blogger...