NVIDIA ha vuelto a potenciar el panorama de la IA con su último chip JONaS. Pero, en primer lugar, ¿por qué necesitamos chips específicos para la IA?, se pregunta Satyen K. Bordoloi.
A principios de este año, una startup de IA generativa para la que trabajé se enfrentó a un dilema común: la escasez de chips de IA. Idealmente, deberíamos haber tenido varios ejecutándose en un servidor interno, pero incluso asegurar el tiempo del chip de IA como software como servicio (SaaS) a un precio razonable fue una lucha.
Estos chips, componentes básicos del futuro y cada uno con más transistores que el total producido en el mundo durante la década de 1970, han impulsado a NVIDIA a valoraciones sin precedentes. Ahora, NVIDIA ha anunciado un nuevo chip que se agotó en la mayoría de los mercados antes de su fecha de lanzamiento oficial.
Supersónico Orin Nano Super: Jetson Orin Nano Super – JONaS (mi apodo, no NVIDIA) es una computadora de placa única diseñada específicamente para el mercado de IA generativa. Este nuevo chip cuenta con una GPU de arquitectura Ampere con 1.024 núcleos CUDA y 32 núcleos Tensor, una CPU ARM Cortex-A78AE de núcleo hexa y 8 GB de RAM LPDDR5. Con un precio de 249 dólares, es casi la mitad del costo de su predecesor, lo que la convierte en una solución más asequible y atractiva para desarrolladores y nuevas empresas.
El módulo funciona con un consumo de energía de 25 vatios, frente a los 15 vatios de la versión anterior, lo que resulta en un aumento de rendimiento de entre un 30 y un 70%. Esta mejora se logra a través de varios ajustes críticos, incluido un aumento en el ancho de banda de la memoria de 64 GB/s a 102 GB/s, lo que mejora las tasas de transferencia de datos y la eficiencia del sistema. La frecuencia de la CPU se ha aumentado a 1,7 GHz, lo que proporciona un procesamiento más rápido para tareas informáticas de uso general, mientras que la frecuencia de la GPU se ha elevado a 1020 MHz, lo que mejora significativamente la capacidad del módulo para manejar tareas gráficas y computacionales complejas.
JONaS está diseñado para admitir una amplia gama de aplicaciones, desde vehículos autónomos y robótica hasta ciudades inteligentes e IA de vanguardia. Su tamaño compacto y alto rendimiento lo hacen ideal para sistemas integrados que requieren capacidades sólidas de IA. Por ejemplo, puede permitir el procesamiento de datos de sensores en tiempo real en vehículos autónomos, lo que permite tomar decisiones críticas sobre la marcha. También se puede integrar en la infraestructura urbana para gestionar el flujo de tráfico, monitorear la seguridad pública y optimizar el consumo de energía.

La evolución de los chips de IA: El término «Inteligencia Artificial» se introdujo por primera vez en la Conferencia de Dartmouth en 1956, pero no fue hasta finales del siglo XX que la IA comenzó a aprovechar hardware informático específico. En la década de 1980, investigadores como Yann LeCun y Geoffrey Hinton lograron avances significativos en redes neuronales y algoritmos de aprendizaje profundo. Por ejemplo, en 1989, LeCun y su equipo de Bell Labs desarrollaron una red neuronal que podría reconocer códigos postales escritos a manomarcando una importante aplicación de la IA en el mundo real.
Antes de la adopción de chips específicos de IA, las CPU de uso general eran la norma. Sin embargo, la necesidad de las industrias de juegos y video de alta definición de una mayor capacidad de procesamiento paralelo llevó a la aparición de unidades de procesamiento de gráficos (GPU). En 2009, investigadores de la Universidad de Stanford destacó que las GPU modernas tenía una potencia computacional superior en comparación con las CPU de múltiples núcleos para tareas de aprendizaje profundo. Esta comprensión llevó al uso generalizado de GPU en aplicaciones de IA debido a su arquitectura de computación paralela ideal para el procesamiento de datos a gran escala requerido por los algoritmos de IA.
Hoy en día, se utilizan varios tipos de chips de IA, cada uno con fortalezas únicas. Las GPU son la piedra angular del entrenamiento y la inferencia de IA debido a sus eficientes capacidades de procesamiento paralelo. Los conjuntos de puertas programables en campo (FPGA) y los circuitos integrados de aplicaciones específicas (ASIC) brindan versatilidad y alto rendimiento para tareas específicas. Además, las unidades de procesamiento neuronal (NPU) o aceleradores de IA están diseñados exclusivamente para el procesamiento de redes neuronales, ofreciendo alto rendimiento y bajo consumo de energía, lo que los hace ideales para aplicaciones de IA de vanguardia donde los datos se procesan localmente en lugar de en un servidor en la nube.
Por qué los chips de IA especializados son indispensables: Las tareas de IA y aprendizaje automático (ML) requieren procesar grandes cantidades de datos en paralelo, lo que va más allá de las capacidades de las CPU tradicionales. Las CPU están diseñadas para el procesamiento secuencial, completando un cálculo a la vez, mientras que los chips de IA como las GPU y las NPU están diseñados para el procesamiento paralelo, ejecutando numerosos cálculos simultáneamente. Esta arquitectura paralela acelera significativamente el tiempo de procesamiento de modelos complejos de IA.

Las GPU también son más eficientes energéticamente que las CPU para tareas de IA, lo que las hace ideales para acelerar las cargas de trabajo de aprendizaje automático. Por ejemplo, las GPU NVIDIA han aumentado el rendimiento en la inferencia de IA 1000 veces en los últimos diez años, al tiempo que reducen el consumo de energía y el costo total de propiedad. JONaS es un excelente ejemplo de esta eficiencia.
Los modelos de IA generativa como ChatGPT requieren miles de GPU trabajando en conjunto para entrenarse y ejecutarse de manera eficiente. La escalabilidad de las GPU permite la agrupación de múltiples unidades para lograr la potencia computacional necesaria, lo que no es factible con las CPU tradicionales.
El futuro de los chips de IA: A medida que la IA continúa evolucionando, el futuro de los chips de IA encierra tanto promesas como desafíos. La trayectoria actual sugiere que los chips de IA seguirán mejorando en rendimiento, eficiencia y especialización. Es probable que los avances futuros se centren en optimizar aún más estos chips para tareas específicas de IA, como el procesamiento del lenguaje natural, la visión por computadora y el análisis predictivo.

La integración de chips de IA con la computación cuántica es particularmente prometedora. Quizás esta sea la razón por la que Google nombró a su división de computación cuántica Quantum AI, similar a como una empresa de detergente en polvo nombra a su producto Detergente. La computación cuántica tiene el potencial de abordar las crecientes demandas computacionales de la IA al proporcionar un escalamiento exponencial, como sabemos. escribió recientemente en nuestro artículo sobre el chip de Google Quantum AI, Willow. Esta convergencia podría revolucionar varios sectores, incluidos la atención sanitaria, las finanzas y la investigación, al permitir el procesamiento de grandes cantidades de datos con una eficiencia y precisión sin precedentes.
Además de la computación cuántica, también se están explorando nuevas arquitecturas, como los chips neuromórficos y fotónicos. Los chips neuromórficos imitan la estructura y función del cerebro humano y ofrecen potencialmente un procesamiento de IA más eficiente y adaptable. Los chips fotónicos utilizan luz en lugar de electricidad para transferir datos, lo que podría reducir significativamente el consumo de energía y aumentar la velocidad de procesamiento.

Los chips avanzados como el JONaS de NVIDIA son de hecho un paso positivo para la industria de la IA, pero para las nuevas empresas de IA que luchan con la escasez inmediata de chips de IA, estos significan poco si se agotan antes de salir a la venta. La rápida aceleración del desarrollo de la IA está poniendo a prueba la cadena de suministro de chips de IA como GPU y aceleradores especializados. Mientras los fabricantes de chips luchan por mantener el ritmo de los pedidos, la escasez podría paralizar los avances de la IA y afectar a todo, desde los centros de datos hasta los dispositivos de consumo.
Dado que la IA impregnará todos los aspectos de nuestras vidas, la disponibilidad de dicha tecnología es esencial para garantizar que todas las partes interesadas (desde las nuevas empresas hasta las grandes empresas) puedan impulsar la innovación y, en última instancia, beneficiar al mundo. La necesidad de mayores innovaciones para producir hardware más potente, eficiente y especializado no es, por tanto, sólo un deseo sino una necesidad.