AMD no es un novato en la guerra por la hegemonía del hardware de Inteligencia Artificial. Sin embargo, su retirada estratégica del mercado de tarjetas PCIe para centros de datos desde 2019 dejó un vacío que NVIDIA aprovechó con creces. Hoy, el gigante rojo vuelve a escena con la MI350P, una GPU construida bajo un proceso de 3 nm y la nueva arquitectura CDNA 4.
Potencia bruta y eficiencia en el diseño
La gran promesa de la MI350P radica en su capacidad para alcanzar 4.6 PFLOPS en precisión MXFP4, un estándar optimizado para el entrenamiento intensivo de modelos de lenguaje (LLM). Pero más allá de la potencia, AMD ha jugado la carta de la practicidad:
-
Memoria masiva: Sus 144 GB de HBM3E permiten gestionar modelos de gran escala en una sola tarjeta, reduciendo la dependencia de configuraciones multi-GPU complejas.
-
Integración "Plug-and-Play": A diferencia de las soluciones que requieren refrigeración líquida personalizada, su diseño de doble ranura y enfriamiento por aire permite instalarla en infraestructuras de servidor ya existentes.
-
Consumo optimizado: Con un techo de 600 W, AMD presume de una eficiencia energética un 6% superior a su antecesora, la MI300X.
A pesar del brillo de las especificaciones, el mercado mantiene un ojo crítico. La MI350P cuenta con 128 unidades de cómputo (CUs), una cifra que genera dudas: ¿estamos ante una reingeniería radical de la arquitectura o simplemente un ajuste incremental sobre CDNA 3?
Además, existe el estigma de que AMD no siempre exprime al máximo los nodos avanzados (como el de 3 nm de TSMC) en su división de consumo. La pregunta es si en el sector empresarial la optimización estará a la altura de las expectativas.
ROCm y el reto del ecosistema abierto
AMD apuesta por las precisiones mixtas (MXFP6 y MXFP4) para cubrir tanto inferencia como entrenamiento, un terreno donde la NVIDIA H100 (y sucesoras) ya son ley. La diferencia competitiva de AMD no está solo en el silicio, sino en su filosofía de ecosistema abierto y herramientas de desarrollo de bajo costo (ROCm)
El éxito real no se medirá solo en FLOPS, sino en la facilidad con la que frameworks como PyTorch o TensorFlow adopten esta nueva arquitectura. Si la migración desde CUDA sigue siendo un dolor de cabeza para los desarrolladores, el hardware, por potente que sea, tendrá dificultades para ganar tracción, aunque por otro lado tenemos algunas soluciones (precisamente que llegan de la mano de la IA) donde es posible portear proyectos completos de CUDA a ROCm usando Claude, si quieres saber un poco más al respecto, tuvimos esa nota aquí mismo hace unos meses.
Evolución necesaria, pero llega derrapando
La MI350P es una pieza de ingeniería sólida que resuelve problemas para las empresas que no quieren depender de centros de datos. No es una revolución que deje obsoleta a la competencia de la noche a la mañana, sino una opción pragmática para el mercado de IA.
AMD ha entregado una herramienta potente. Ahora le toca demostrar que puede ofrecer un retorno de inversión tangible y no solo una alternativa económica. Recordemos que la competencia esta bastante fuerte teniendo a NVIDIA con varias versiones de la RTX Pro 6000 (que recordemos tiene unicamente 96GB de memoria) esperemos que esos 144GB sean lo suficientemente persuasivos para considerar estas GPUs por tema de densidad de memoria y por otro lado que esta Insctinct no se quede corta en terminos de potencia (Tok/s).



Comentarios
Los comentarios se cargarán automáticamente...