Comentario Nvidia es la campeona indiscutible de la infraestructura de IA, al menos en el centro de datos. En el campo emergente de las PC con IA, las cosas no están tan claras.

A principios de 2024, quedó claro que, para bien o para mal, el futuro de Windows sería imbuido con funciones y experiencias mejoradas por IA. Las características principales incluían subtítulos en vivo y traducción, generación de imágenes en MS Paint y, eventualmente, algo dudoso Función de recuperación que realiza capturas de pantalla periódicas y las utiliza para realizar un seguimiento de la actividad pasada.

Por el momento, estas nuevas características son exclusivas de las llamadas PC Copilot+, pero para calificar para esa designación, las computadoras deben cumplir con los objetivos mínimos de rendimiento de Microsoft.

Según el titán de Windows documentaciónLas PC Copilot+ requieren una unidad de procesamiento neuronal (NPU) capaz de realizar 40 o más TOPS, o más de 40 billones de operaciones de IA INT8 por segundo, junto con al menos 16 GB de RAM y 256 GB de almacenamiento. Cuando todo esto se lanzó, solo Qualcomm tenía un procesador capaz de cumplir con el requisito de NPU de Redmond, por lo que solo las PC con ese silicio podían como PC Copilot+ ejecutar las funciones mejoradas de IA antes mencionadas.

Desde entonces, a los chips X compatibles con Arm calificados de Qualcomm se unieron las familias de procesadores Lunar Lake de Intel y Strix Point y Halo de AMD como compatibles con PC Copilot+.

Sin embargo, de alguna manera, una Nvidia de 2.000 dólares RTX 5090Como se anunció en CES 2025 este mes, con más de 3,3 petaFLOPS de cálculo de IA (eso, por cierto, en FP4) todavía no es lo suficientemente bueno para Redmond. No importa cuántos FLOPS o TOPS pueda reunir su GPU, a Microsoft solo le importa si es una Unidad Nuclear Nuclear produciéndolos en serie, al menos por ahora.

Nvidia no ha aflojado en la PC con IA

Gran parte del revuelo publicitario en torno a las PC con IA ha girado en torno a la especificación Copilot+ de Microsoft, y es comprensible. Casi todas las PC que se venden hoy ejecutan Windows. Este dominio del ecosistema de software para PC hace que la obsesión de Microsoft con las NPU sea difícil de ignorar, pero eso no significa que Nvidia se haya dormido en los laureles, contenta con dominar el centro de datos, los gráficos de las estaciones de trabajo y las GPU para juegos discretos.

De hecho, Nvidia ha estado trabajando para llevar funciones de IA a la PC durante años, dijo Jesse Clayton, quien dirige el marketing de productos para Windows AI en Nvidia. El Registro.

«Comenzamos el movimiento con la IA en la PC en 2018, cuando lanzamos las primeras GPU GeForce y GPU Nvidia con hardware de IA dedicado: nuestros núcleos tensoriales», dijo Clayton. «Junto con eso, anunciamos la primera IA para PC ampliamente implementada, que fue DLSS, que se usa en juegos para acelerar la velocidad de fotogramas mediante el uso de IA para generar píxeles y ahora genera fotogramas para los juegos».

Desde entonces, el gigante de las GPU ha desplegado el RTX AI Toolkit, un conjunto de herramientas y software para optimizar e implementar modelos genAI en PC con Windows, trajo Nvidia Inference Microservices (NIM) a las PC, y lanzó una serie de planos para cosas como generación de imágenes de última generación y conversión de archivos PDF a podcasts.

«Nuestra estrategia es donde podemos ofrecer experiencias interesantes y diferenciadas, ya sea como jugador porque mejora tu juego, o como creador porque te ahorra tiempo y reduce el trabajo repetitivo y tedioso», explicó Clayton.

Y, si bien algunas de estas experiencias están dirigidas directamente a los usuarios finales (ChatRTX y RTX Voice, por ejemplo), muchos de los lanzamientos de software más recientes de Nvidia han estado dirigidos a la comunidad de desarrolladores.

Competencia u oportunidad

Diga lo que quiera sobre el valor real de Copilot+, Microsoft ha obligado con éxito a los diseñadores de conjuntos de chips a ofrecer algún tipo de NPU que satisfaga al gigante de Windows y al mismo tiempo establezca un nuevo estándar mínimo para el rendimiento del aprendizaje automático.

Teniendo en cuenta la participación de mercado de Windows y los esfuerzos continuos de Microsoft por calzar la IA en cada rincón de su software, es solo cuestión de tiempo antes de que las NPU lleguen incluso a las versiones de presupuesto más bajo.

Es más, la adopción de marcos como el de Microsoft DirectML y Tiempo de ejecución de ONNX han ayudado a simplificar el desarrollo de aplicaciones y permitir que el código se ejecute en un conjunto diverso de hardware con una mínima necesidad de reequipamiento.

Ilustración de una IA mala y posiblemente maliciosa como alguien con un televisor en la cabeza

Justo cuando su LLM una vez más se descarrila, Cisco y Nvidia están en la puerta sonriendo

LEER MÁS

Esto plantea un problema potencial para Nvidia. El goliat de Silicon Valley puede dominar el mercado de procesadores gráficos discretos, rodeado de su foso CUDAsin embargo, sus GPU solo se encuentran en aproximadamente 18 por ciento de PC vendidas con la gran mayoría de sistemas que utilizan gráficos integrados de Intel, AMD u otros.

Se puede argumentar que, en poco tiempo, las NPU se convertirán en un objetivo mucho más grande para los desarrolladores que crean aplicaciones de IA. Y aunque Nvidia no necesariamente quedará fuera de la conversación, ya que sus aceleradores también soportan muchos de los marcos de software más populares, al menos parte de su ventaja competitiva gira en convencer a los desarrolladores para que utilicen sus bibliotecas y microservicios, que prometen una integración más fácil y una mayor rendimiento y eficiencia.

En última instancia, afirma Clayton, los desarrolladores tendrán que tomar una decisión sobre si quieren llevar su aplicación al mercado rápidamente utilizando algo como NIM o si quieren soportar la mayor base de instalación posible.

Pero, si bien Nvidia puede eventualmente enfrentar la competencia de las NPU (las PC con IA siguen siendo un mercado bastante especializado), no todas son necesariamente malas noticias. Incluso si los modelos no terminan ejecutándose en el hardware de PC de Nvidia, es muy probable que hayan sido entrenados en sus GPU.

Incluso entonces, Clayton argumenta que las NPU no serán apropiadas para todas las cargas de trabajo. Forty TOPS es una cantidad decente de computación, pero, como mencionamos anteriormente, palidece en comparación con el rendimiento del silicio gráfico de alta gama.

«Las NPU serán el lugar donde podrás ejecutar tus cargas de trabajo de IA livianas y serán realmente eficientes energéticamente», dijo. «Una GPU es donde se ejecutan los casos de uso de IA más exigentes, y ahí es donde hemos estado impulsando y centrando nuestros esfuerzos».

«Para cosas que simplemente no caben en una PC, las ejecutas en GPU en la nube, donde efectivamente tienes un rendimiento ilimitado», agregó Clayton.

Después de todo, las GPU pueden recibir algo de amor por Copilot+

Ya existe alguna evidencia que sugiere que Microsoft podría extender algunas funciones de Copilot+ a las GPU para admitir cargas de trabajo más desafiantes desde el punto de vista computacional en el futuro.

Microsoft no respondió nuestras preguntas sobre sus planes para aprovechar las GPU. Sin embargo, en un anuncio A partir de junio, Nvidia dijo que estaba trabajando con Microsoft para agregar aceleración de GPU para modelos de lenguajes pequeños (SLM) a través de Windows Copilot Runtime.

Se suponía que la tecnología se materializaría a finales de 2024, aunque la propia Microsoft documentos (actualizado por última vez el 5 de diciembre) no menciona las GPU y cita específicamente las NPU como un requisito para su proyecto Phi Silica para SLM, aún no disponible.

Clayton se negó a proporcionar actualizaciones sobre la colaboración y dijo que «en última instancia, es decisión de Microsoft dónde ejecutarán qué cargas de trabajo».

Si Microsoft decide adoptar GPU para la IA local, en última instancia, puede depender de la disponibilidad del hardware. Al momento de escribir este artículo, la cantidad de PC Copilot+ equipadas con NPU y gráficos dedicados es bastante pequeña.

En el escritorio, la situación es aún más complicada. Los chips de escritorio con NPU existen, pero ninguno de ellos, al menos hasta donde sabemos, cumple con el requisito de rendimiento 40 TOPS de Microsoft. No esperamos que pase mucho tiempo antes de que las NPU más robustas lleguen al silicio de escritorio. Todo lo que haría falta es que Intel o AMD encuentren una manera de meter las NPU de sus chips móviles en un factor de forma de escritorio. ®

Source link