El GTC de otoño muestra a quién le importa realmente Nvidia • The Register

0
3
El GTC de otoño muestra a quién le importa realmente Nvidia • The Register

marca comunitaria La GPU Technology Conference de esta semana vio a Nvidia hacer algo que no hemos visto mucho del diseñador de chips últimamente: actualizar un producto de consumo.

Para el gigante tecnológico cada vez más obsesionado con las empresas, GTC se ha convertido cada vez menos en GPU para jugadores y todo lo relacionado con la capitalización de mercados nuevos y emergentes, como IA, robótica, vehículos autónomos y el metaverso siempre de moda. Por metaverso, en este contexto, nos referimos a mundos de realidad virtual 3D en los que puede interactuar y colaborar con simulaciones, aplicaciones y entre sí.

El CEO de Nvidia, Jensen Huang, vestido con su chaqueta de cuero característica, subió al escenario, ¿o es holodeck? no estamos seguros, para presentar un trío de tarjetas gráficas de la serie RTX 40 impulsadas por la arquitectura Ada Lovelace de sus ingenieros.

Para muchos que sintonizaron el discurso de apertura de casi una hora y 45 minutos de duración de Huang, esa revelación puede haber sido el único anuncio sólido y relevante en el evento de este otoño.

Usando un conjunto de puntos de referencia cuidadosamente seleccionados, Huang se jactó de las ganancias de rendimiento de las tarjetas gráficas RTX 4090 y 4080 con respecto a sus predecesoras. El diseñador de chips dijo que el RTX 4090 ofrecerá un rendimiento 2x-4x más alto en comparación con el buque insignia anterior de la compañía, el 3090 TI, que se lanzó esta primavera.

Luego está el precio de estas nuevas unidades RTX. Las tarjetas son algunas de las más caras de Nvidia hasta la fecha. A $899 para la 4080 de 12GB y $1,199 para la versión de 16GB, las tarjetas son $200-$500 más caras que la 3080 cuando se lanzó dos años antes. El aumento de precios en el 4090 no es tan grave. A $1,599, es alrededor de $100 más que cuando el 3090 hizo su debut en 2020.

Huang, hablando durante una conferencia de prensa el miércoles, defendió el aumento, argumentando que las mejoras en el rendimiento y el conjunto de funciones compensaron con creces el precio más alto. Afirmó que el aumento de precios se justificaba aún más por los mayores costos de fabricación y materiales.

“Una oblea de 12 pulgadas es mucho más cara hoy que ayer, y no es un poco más cara, es muchísimo más cara”, dijo, y agregó que “nuestro desempeño con Ada Lovelace es monumentalmente mejor”.

Pero más allá de las nuevas tarjetas, en las que Huang dedicó menos de dos minutos a detallar, todo volvió a la normalidad. Aquí hay un resumen de los anuncios más importantes de Nvidia en GTC.

Volver a un modelo de arquitectura dual

Los aproximadamente 15 minutos previos al anuncio de RTX se dedicaron a la nueva arquitectura Ada Lovelace de Nvidia, en la que el diseñador de chips vuelve una vez más a un modelo de arquitectura dual.

La arquitectura Hopper previamente anunciada de Nvidia impulsará los procesadores HPC y centrados en IA de la compañía, como el H100, mientras que la arquitectura Ada Lovelace impulsará los chips centrados en gráficos de Nvidia.

Nombrada en honor a la matemática del siglo XIX, la arquitectura Ada Lovelace se basa en el proceso 4N de TSMC y presenta núcleos de trazado de rayos en tiempo real de tercera generación de Nv y núcleos Tensor de cuarta generación.

Así que ahí está la división: Hooper apuntaba principalmente a la computación de alto rendimiento y grandes cargas de trabajo de IA, y Lovelace apuntaba principalmente a todo lo demás, desde GPU de servidores en la nube hasta tarjetas de juego.

Esta no es la primera vez que Nvidia emplea un modelo de arquitectura dual. Volviendo a dos generaciones, los chips del centro de datos de Nvidia, como el V100, usaban su arquitectura Volta. Mientras tanto, sus chips centrados en el consumo y los gráficos, la serie RTX 2000 y la familia Quadro RTX, por ejemplo, utilizaron la microarquitectura de Turing.

Además de las piezas de la serie RTX 40 de Nvidia, Ada Lovelace también impulsará las tarjetas de estación de trabajo de la serie RTX 6000 de Nvidia y sus GPU de centro de datos L40. Sin embargo, a diferencia de Hopper, Huang dice que la nueva arquitectura está diseñada para abordar una nueva generación de desafíos centrados en gráficos, incluido el auge de los juegos en la nube y el metaverso. Esos necesitarán chips gráficos en alguna parte para renderizar esos entornos en tiempo real: los juegos en la nube son donde el juego se renderiza principalmente en un backend y se transmite en vivo a través de Internet a una pantalla frente al usuario, como una computadora portátil o un teléfono. Eso evita que los jugadores compren y actualicen equipos de juego y/o que los lleven a todas partes.

“En China, los juegos en la nube van a ser muy grandes y la razón es que hay mil millones de teléfonos que los desarrolladores de juegos ya no saben cómo servir”, dijo. “La mejor manera de resolver eso es jugar en la nube. Puede llegar a gráficos integrados y puede llegar a dispositivos móviles”.

El metaverso pero como servicio

Sin embargo, Ada Lovelace no se limita a las aplicaciones de juegos en la nube. Nvidia está posicionando la arquitectura como el caballo de batalla de su primera oferta de software como servicio, que dice permitirá a los clientes acceder a su pila de hardware y software Omniverse desde la nube.

Omniverse Cloud ofrece los recursos informáticos y de software remotos necesarios para ejecutar aplicaciones de metaverso bajo demanda, desde la nube. La idea es que no todas las empresas quieren o tienen el presupuesto para gastar millones de dólares en uno de los SuperPods OVX de Nvidia para proporcionar ese nivel de simulación y renderizado en caso de que el metaverso realmente llegue a alguna parte. En cambio, pueden construir sus metaversos en Omniverse Cloud.

Por ahora, Nvidia parece estar cortejando a grandes socios de logística, fabricación y otros socios industriales, prometiendo ayudarlos a construir y visualizar gemelos digitales. Estos gemelos son simulaciones a gran escala: cada simulación se combina con el mundo real, utilizando datos y modelos reales, y se presentan como una forma de probar y validar diseños, procesos y sistemas en un mundo virtual antes de que se implementen en el mundo. mundo real.

Sí, todo es modelado y simulación más sofisticados, pero con nuevo silicio, interactividad, realidad virtual y facturas.

Si bien Omniverse Cloud es la primera incursión de Nvidia en los servicios administrados en la nube, no será la última, según Huang, quien informó que su empresa está evaluando un modelo similar para sus otras plataformas de software.

Autos más inteligentes, robots

Nvidia no solo quiere potenciar los gemelos digitales de los almacenes y las plantas de fabricación de los clientes. Durante el discurso de apertura, Huang también detalló una gran cantidad de hardware diseñado para impulsar todo, desde robots autónomos hasta automóviles.

Huang habló sobre Drive Thor, la plataforma informática todo en uno de Nvidia que está diseñada para reemplazar la multiplicidad de sistemas informáticos que se utilizan en los vehículos en la actualidad.

La tecnología hará su debut en China, donde Nvidia dice que impulsará la línea de vehículos Zeekr y Xpeng 2025 y el servicio de taxi autónomo de QCraft. Eso es, por supuesto, si las restricciones de exportación de EE. UU. no se endurecen hasta el punto en que Nvidia ya no puede cumplir, una perspectiva que Huang minimizó durante la conferencia de prensa del miércoles.

Mientras tanto, para impulsar a los minions robóticos que corretean junto a los trabajadores humanos, Nvidia mostró sus plataformas IGX y Orin Nano.

IGX se basa en el sistema en módulos Orin AGX Industrial previamente anunciado de Nvidia, pero agrega redes de alta velocidad. Según Nvidia, uno de los primeros usos de la placa será en robots quirúrgicos. Mientras tanto, los módulos Jetson Orin Nano de Nvidia están diseñados para abordar aplicaciones menos exigentes.

Modelos de lenguaje grande para las masas

Al igual que con los GTC anteriores, el software dominó una parte considerable de la presentación principal. Dos de los lanzamientos más importantes para el evento de este otoño fueron los servicios de modelo de lenguaje grande (LLM) de Nvidia llamados NeMo y BioNeMo.

Los servicios tienen como objetivo facilitar el empleo de LLM para los investigadores y biólogos de IA que buscan obtener información de conjuntos de datos complejos. Los servicios permiten a los clientes conectar sus datos existentes en modelos básicos personalizables con un esfuerzo mínimo. Por ejemplo, se sugirió que BioNeMo podría usarse para acelerar la investigación sobre el plegamiento de proteínas.

Todas las empresas, en todos los países, que hablan todos los idiomas, tienen probablemente decenas de habilidades diferentes que su empresa podría adaptar a nuestro modelo de lenguaje grande para llevar a cabo.

Sin embargo, mirando más allá del campo médico, Huang espera que los LLM tengan una amplia aplicabilidad para la gran mayoría de las empresas. “Creo que todas las empresas, en todos los países, que hablan todos los idiomas, tienen probablemente decenas de habilidades diferentes que su empresa podría adaptar a nuestro modelo de idiomas grandes para que funcionen”, dijo.

“No estoy exactamente seguro de cuán grande es esa oportunidad, pero es potencialmente una de las oportunidades de software más grandes de la historia”.

Tolva en producción

Finalmente, Nvidia proporcionó una actualización sobre la disponibilidad de sus tan esperadas GPU Hopper H100, que dice que han entrado en producción en volumen y comenzarán a enviarse a los constructores de sistemas OEM el próximo mes.

Anunciadas en el evento de primavera GTC de Nvidia, las GPU de 700 W prometían un rendimiento de IA 6 veces mayor en comparación con el A100 saliente gracias a la compatibilidad con el cálculo de punto flotante de 8 bits. Mientras tanto, para las aplicaciones de HPC, Nvidia dice que el chip ofrecerá el triple de rendimiento en los cálculos FP64 de doble precisión.

Sin embargo, aquellos que esperan tener en sus manos los servidores DGX H100 internos de Nvidia, completos con su tecnología de interconexión personalizada, tendrán que esperar hasta algún momento del primer trimestre de 2023, un trimestre completo más tarde de lo esperado.

Si bien Nvidia culpó a la mayor complejidad del sistema DGX, un probable culpable son los procesadores Sapphire Rapids de Intel utilizados en los sistemas, que, según se informa, se retrasaron hasta fines del primer trimestre. ®

LEAVE A REPLY

Please enter your comment!
Please enter your name here