Esta demanda creciente de parte de los usuarios en cuanto a la precisión de las respuestas y el tiempo de espera, entre otras cuestiones, requiere de equipos cada vez más sofisticados: data centers que alojan sistemas o soluciones en la nube de Google, Microsoft y Amazon Web Service (AWS) hasta los procesadores que incluyen inteligencia artificial de forma local.
AMD (Advanced Micro Devices) presentó en la semana que confirmó su alianza con Intel su nuevo ecosistema de procesadores para centros de datos. Una unidad de negocio que en siete años pasó de representar del 0% a 50% de los ingresos del fabricante de procesadores.
Los nuevos «cerebros» de los data centers
La 5ta generación de procesadores EPYC 9005 Series, conocido internamente como «Turin», aparece como opción para mejorar el rendimiento de los servidores en la nube, en entornos empresariales y hasta para el entrenamiento de aplicaciones de inteligencia artificial.
Se trata de un chip conformado por 150 billones de transistores, 17 chiplets, 192 núcleos y 384 hilos de procesamiento, alcanzando velocidades superiores a los 5 GHz.
Compatible con la plataforma SP5 “Genoa”, la serie EPYC está diseñada para potenciar una variedad de servicios utilizados diariamente por millones de personas, incluyendo WhatsApp, Facebook, Netflix, Office 365, SAP, Zoom y Oracle, entre otros.
Los nuevos procesadores llegan con significativas mejoras en el rendimiento empresarial y en la gestión de AI GPU Host Node. Por ejemplo, el modelo AMD EPYC 5ta Gen 9355, que cuenta con 32 núcleos, ofrece un rendimiento 1.4 veces superior por núcleo en comparación con el modelo de su rival, Intel Xeon 5ta Gen 6548Y+, que posee una configuración similar.
Asimismo, AMD destaca que solo 131 servidores equipados con los nuevos procesadores EPYC son equivalentes a 1000 de generaciones anteriores de la competencia, lo que equivale una reducción del 83.9% del espacio físico; además de ofrecer un ahorro energético superior al 50 por ciento.
Esto no solo representa una mejora en la eficiencia operativa, sino que también responde a las crecientes demandas del sector corporativo, según remarcan desde AMD, que busca cada vez más soluciones para entrenar modelos de inteligencia artificial, aprendizaje automático, módulos de lenguaje y búsquedas en bases de datos.
Aceleradores para data centers
La ventana de lanzamientos para mejorar el rendimiento de los data centers le puso el foco también a los aceleradores AMD MI325x y MI350 (lo lanzan en la segunda mitad del 2025), diseñados para el manejo de redes con un incremento de 35 veces el desempeño de las inteligencia artificial.
Los aceleradores AMD Instinct mejoran el rendimiento de un centro de datos, a cualquier escala, desde soluciones de servidor único hasta las supercomputadoras más grandes del mundo.
Estos dispositivos diseñados para optimizar el rendimiento y la eficiencia en tareas de Inteligencia Artificial (IA) y centros de datos, basados en la arquitectura AMD CDNA. Estos aceleradores están enfocados en el entrenamiento, ajuste fino e inferencia de modelos de IA, ofreciendo características avanzadas.
Por eso, en término de rendimiento, el fabricante asegura que el modelo MI325X puede aportar 1,3 veces mayor capacidad de aprendizaje en modelos como Mistral 7B y Llama 3.1 de Meta, ambos rivales de ChatGPT en resumir y clasificar textos o escribir código de programación.
La disponibilidad del MI325X está programada para el primer trimestre de 2025, con su producción comenzando a finales de 2024, de la mano de marcas como Dell, HP, Lenovo y Supermicro.
Por otro lado, el AMD Instinct MI350, basado en CDNA 4, que ofrecerá 288 GB de memoria HBM3E y una mejora del 35% en el rendimiento de inferencia.
Estos aceleradores, junto con el software abierto ROCm, que incluye nuevas funcionalidades como FP8 y Kernel Fusion, son utilizados en tareas de IA avanzadas, optimizando redes de IA de próxima generación mediante la DPU (Data processing Unit, unidad de procesamiento de datos) AMD Pensando Salina para la gestión del frontend y la NIC AMD Pensando Pollara 400 para el backend.
Las tarjetas están optimizadas para ejecutar una pila de software que ofrecen servicios en la nube, de procesamiento, de red, de almacenamiento y de seguridad a escala de nube, con requisitos mínimos de latencia, fluctuación y potencia.
«Así, los aceleradores AMD Instinct se posicionan como soluciones potentes para el entrenamiento e inferencia de modelos de IA generativa y la optimización de centros de datos a gran escala», según afirmaron fuentes de la compañía californiana.
Inteligencia artificial en las nuevas notebooks
Si bien el negocio de los data centers es muy importante para AMD, los procesadores móviles de IA comerciales, o sea que incorporan en una misma plataforma la tecnología necesaria para «correr» inteligencia artificial, sigue como uno de sus pilares.
El más reciente, Ryzen AI PRO Serie 300, diseñados specíficamente para transformar la productividad empresarial con funciones de Copilot+ que incluyen subtítulos en vivo, traducción de idiomas en conferencias telefónicas y generadores de imágenes de IA avanzados.
Los procesadores Ryzen AI PRO Serie 300 cuentan con la nueva arquitectura AMD “Zen5″ de 4 nanómetros, para tener más potencia y eficiencia, en especial, para trabajar con Copilot+, asistente de inteligencia artificial (IA) de Windows que mejora la productividad y creatividad.
Con la incorporación de la arquitectura XDNA 2 que impulsa la NPU integrada para trabajar con inteligencia artificial en forma local, sin depender de una nube, los procesadores AMD Ryzen AI PRO Serie 300 ofrecen una potencia de procesamiento NPU de más de 50 trillones de operaciones por segundo (50 TOPS), superando los requisitos que solicita Microsoft para PCs con IA Copilot+.
Con la opción Ryzen AI 9 HX PRO 375 de gama alta, según el fabricante, ofrecerá hasta un 40 % más de rendimiento y de productividad hasta un 14 % más rápida en comparación con su principal rival Intel Core Ultra 7 165U.
En síntesis, las próximas notebooks equipadas con chips Ryzen AI PRO Serie 300 están diseñadas para hacer frente a las cargas de trabajo más exigentes a nivel empresarial.