La principal ejecutiva de AMD, Lisa Su, ha predicho que los aceleradores de instinto del diseñador de chips impulsarán decenas de miles de millones de dólares en los ingresos anuales en los próximos años, a pesar de las especulaciones inspiradas en los profundos de que los modelos de IA de próxima generación pueden no necesitar el mismo nivel de infraestructura de cálculo utilizada para producir tal Herramientas hoy.
«En relación con Deepseek, creemos que la innovación en los modelos y los algoritmos es bueno para la adopción de la IA», dijo Su a analistas en la llamada de ganancias del cuarto trimestre del martes, refiriéndose a la sorprendentemente capaz Familia Made-In-China LLM que fue construido en infraestructura de cálculo Tan eficiente, con menos GPU de lo que uno podría esperar, hace que los inversores se pregunten si la IA de vanguardia realmente necesita los miles de millones en las demandas de Capex Silicon Valley.
O, en otras palabras, ¿las organizaciones realmente necesitan gastar tanto en personas como AMD, comprar sus aceleradores de IA e hinchar sus ingresos, si Deepseek muestra que puede hacer más con menos? ¿No es esta una señal de advertencia de una corrección del mercado?
«El hecho de que haya nuevas formas de lograr capacidades de capacitación e inferencia con menos infraestructura es realmente bueno», dijo SU, «porque nos permite continuar desplegando calculación de IA en el espacio de aplicación más amplio y (con) más adopción».
Y hablando de la adopción, Su espera que los ingresos por instinto aumenten significativamente en comparación con los más de $ 5 mil millones que trajeron durante el año fiscal 2024. El CEO solo ofreció esa perspectiva entusiasta y se resistió a comprometerse con un número de ingresos.
Sin embargo, Su sugirió que el crecimiento más fuerte de AMD vendría en la segunda mitad del año fiscal 2025 (que termina el 28 de diciembre y, por lo tanto, superpone el año calendario) y será impulsado por los envíos de sus aceleradores MI355X de próxima generación.
Inicialmente, se esperaba que esos chips se enviaran hacia el final de la segunda mitad. Sin embargo, dado el rendimiento de la demanda temprana de silicio y clientes, SU dijo que el diseñador de chips ahora espera aumentar la producción hacia mediados de año.
Primero desestimado Durante el evento de AI avanzado de AMD el otoño pasado, la GPU de próxima generación usará la arquitectura de ADNc 4 y contará con un denso rendimiento del punto flotante aproximadamente a la par con los aceleradores B200 de Nvidia mientras ofrece un 50 por ciento más de memoria a 288 GB.
SU también aprovechó la oportunidad para provocar a los aceleradores de la serie MI400 de próxima generación de AMD, que aparentemente se ofrecerá en una arquitectura a escala de estante.
«La arquitectura de next de CDNA da otro salto importante, lo que permite potentes soluciones a escala de rack que integran estrechamente las capacidades de redes, CPU y GPU a nivel de silicio para admitir soluciones instintivas a escala de centros de datos», dijo.
SU no entró en muchos detalles sobre cómo se verán estos sistemas a escala de rack, pero si tuviéramos que adivinar que recordarán un poco de los sistemas NVL72 de 120 kilovatios de NVIDIA. mirar La primavera pasada, solo usando el enlace Ultra Ethernet y UA en lugar de Infiniband y NVLink.
AMD no es el único que se ha subido en el carro de la escala del estante. La semana pasada, Intel reveló Sus GPU de Jaguar Shores también adoptarán el factor de forma, suponiendo que alguna vez lo logren fuera del laboratorio.
AMD minimiza la amenaza ASIC ASIC
En la llamada de ganancias del martes, SU también minimizó la amenaza de AI personalizada AIS pose para el negocio de la GPU de AMD.
El silicio personalizado para las cargas de trabajo de IA se ha vuelto cada vez más común entre los proveedores hiperscaleros y de la nube. En particular, Google y Amazon ahora han desplegado grandes cantidades de sus respectivas unidades de procesamiento de tensor (TPU) y aceleradores de capacitaciones para apoyar el desarrollo de modelos internos y externos.
A fines del año pasado, Amazon reveló planes para desplegar más de 100,000 aceleradores de Entrenium2 bajo Proyecto Rainier Para el uso de AI Model Builder Anthrope. Broadcom le ha dicho a los accionistas que ve una tubería para millones de dispositivos similares.
A pesar de esto, SU no espera que AI AIS ASICS reemplace las GPU en el corto plazo.
«Siempre he creído en el que necesitas el cómputo adecuado para la carga de trabajo adecuada», dijo. «Dada la diversidad de cargas de trabajo, modelos grandes, modelos medios, modelos pequeños, inferencia … modelos de base amplios o modelos muy específicos, necesitará todo tipo de cómputo y eso incluye CPU, GPU, ASIC y FPGAS «
En total, SU espera que estos aceleradores eventualmente contribuyan a un mercado total direccionable (TAM) de más de $ 500 mil millones. Sin embargo, señala que los algoritmos de IA detrás del boom generativo de IA todavía están evolucionando. «Mi creencia es que, dado la cantidad de cambio, todavía está sucediendo en los algoritmos de IA, que ASICS seguirá siendo la parte más pequeña de ese TAM (mercado total direccionable)».
AMD Q4 por los números
La forma en que esta mezcla realmente se sacudirá por verse, pero está claro de Ganancias del cuarto trimestre de AMD La compañía tiene mucho en su instinto aceleradores, lo que representa aproximadamente una quinta parte de sus ingresos anuales.
Mirando hacia atrás en los últimos cuatro trimestres, las ganancias de AMD casi se duplicaron durante el año fiscal 2024, aumentando un 92 por ciento a $ 1.6 mil millones. Los ingresos, para el año, mientras tanto aumentaron un 14 por ciento a $ 25.8 mil millones.
De eso, $ 482 millones en ingresos netos y $ 7.75 mil millones en ingresos se obtuvieron durante el cuarto trimestre. Como era de esperar, la división de centros de datos de AMD volvió a representar la participación del león en los ingresos, en $ 3.9 mil millones para el trimestre, un 69 por ciento más año tras año. Durante todo el año, las ventas de centros de datos totalizaron $ 12.6 mil millones, un 94 por ciento más, de los cuales las GPU instinto representaron $ 5 mil millones.
La División de Computación de Clientes de AMD ganó $ 2.3 mil millones en ingresos en el cuarto trimestre, un aumento del 58 por ciento en comparación con esta vez el año pasado. Las ganancias de AMD en esta arena no son terriblemente sorprendentes teniendo en cuenta que recientemente refrescó sus productos móviles y de escritorio.
Sin embargo, los juegos de AMD y las divisiones integradas continuaron luchando en el cuarto trimestre. Los ingresos de los juegos alcanzaron los $ 563 millones, un 59 por ciento menos año tras año. Q4 suele ser una buena temporada para los ingresos de los juegos, ya que las PC y las consolas de alta potencia aparecen bajo los árboles de Navidad. Los ejecutivos señalaron la edad avanzada: ¡cinco años enteros! – De la PlayStation de Sony y la Xbox de Microsoft como una razón para el bajo rendimiento, a medida que disminuyen las ventas de consola, ya que envejecen, lo que significa la demanda de los procesadores AMD personalizados que incluyen disminuyendo.
SU sugirió que el juego y el segmento integrado podrían recuperarse en 2025, ya que AMD se dirige a los jugadores de PC convencionales con sus GPU Radeon 9000.
El segmento integrado de AMD, que incluye su familia de productos FPGA y adaptativa SOC, también disminuyó durante el trimestre, cayendo 13 por ciento año tras año a $ 923 millones. Según SU, la demanda del mercado de FPGA mejoró en los espacios aeroespaciales y de defensa, pero sigue siendo débil entre los clientes industriales y de comunicaciones.
Mirando hacia el primer trimestre, AMD pronostica ingresos de $ 7.1 mil millones otorga $ 300 millones, un aumento de aproximadamente el 30 por ciento en comparación con 2024 y una disminución del siete por ciento del trimestre anterior.
Hablando de eso, el precio de las acciones de AMD cayó alrededor del nueve por ciento en las operaciones fuera de horario anticipado. ®