En 2006, AMD adquiría ATI Technologies, una fabricante de semiconductores canadiense especializada en unidades de procesamiento gráfico (GPUs, por sus siglas en inglés) y chipsets gráficos que, además de sus productos para ordenadores, se había hecho famosa por proporcionar el hardware gráfico a videoconsolas como la Nintendo Wii o la Xbox 360 de Microsoft. De esta forma, la productora de chips, centrada en el negocio de las CPUs, complementaba sus actividades con una tecnología gráfica potente.
Con esta compra, AMD también adquirió una enemiga en el mercado: NVIDIA. Esta última rivalizaba con ATI por ofrecer las mejores GPUs. Y, actualmente, NVIDIA es considerada la ‘reina’ de las GPUs para tareas de la inteligencia artificial, lo que ha catapultado su cotización en la bolsa.
No obstante, y con el bagage de la tecnología adquirida con ATI el 2006 y evolucionada hasta el día de hoy, AMD se ha ido haciendo un hueco en el ámbito del hardware para IA de forma más discreta, pero con unas cifras en absoluto menospreciables que, además, superan con creces las de Intel, histórica firma competidora de AMD en el terreno de las CPUs, que estos últimos años está sufriendo graves problemas en el mercado.
The Register, magazine online dedicado a la tecnología en los negocios y al negocio de la tecnología, ha publicado un detallado artículo sobre la posición que ocupa AMD en el mercado de la IA, que depara algunas sorpresas.
Clientes importantes
Entre otras, AMD suministra GPUs para tareas de la IA entre otras, a firmas tan importantes como Microsoft, Meta y Oracle.
El caso de Microsoft resulta particularmente significativo, ya que se estima que la compañía de Redmond adquirió cerca de 581.000 GPU a lo largo de este año, con aproximadamente una de cada seis unidades procedente de la oferta de AMD.
Por lo que respecta a Meta, las GPUs de AMD representaron en torno al 43% de los envíos en 2024, mientras que para Oracle, se calcula que un 25% de sus aceleradores corresponden al catálogo de AMD.
Pese a estas cifras, el crecimiento de AMD en el mercado no ha hecho que la posición de NVIDIA se vea comprometida, ya que el de los centros de datos para IA es un mercado en pleno crecimiento, así que la entrada de nuevos actores, no perjudica a los demás.
AMD y la sed de alternativas
Aunque su cuota de mercado todavía no es tan amplia, el crecimiento de AMD en clientes como Microsoft y Meta resulta significativo en tan solo un año de disponibilidad de sus nuevas GPU MI300. Este rango de productos proviene de la experiencia de la compañía en supercomputación, con antecedentes como el superordenador Frontier en el Laboratorio Nacional de Oak Ridge, que ya utilizaba sus aceleradores.
Según el director de investigación de centros de datos de Omdia, existe una necesidad de encontrar opciones distintas a NVIDIA, lo que lleva a los compradores a AMD, a lo que se junta el interés de las grandes tecnológicas por manejar modelos de lenguaje cada vez más complejos.
Desde Omdia destacan el acelerador MI300X, con una memoria de 192 GB, con un ancho de banda de 5,3 TBps, lo que, en teoría, permite entrenar e inferir sobre modelos de gran tamaño con mayor facilidad. Sucesivas actualizaciones de producto, como la versión MI325X, elevan la capacidad a 256 GB, y se prevé que un futuro MI355X alcance los 288 GB.
La perspectiva de cara al año que viene contempla mayores oportunidades para AMD, que podría ganar más mercado. El atractivo de sus especificaciones está llevando a grandes clientes a implementar estos aceleradores en cargas de trabajo intensivas que demandan memoria y ancho de banda significativos.
Soluciones personalizadas y mercado de los grandes modelos
Mientras tanto, otros actores también se han sumado a la carrera; Omdia destaca que los proveedores de servicios en la nube y los gigantes de Internet, incrementan sus pedidos de silicio propio para determinadas cargas de trabajo de la IA.
Por ejemplo, Meta ha recibido más de 1,5 millones de unidades de sus aceleradores MTIA, orientados principalmente a los sistemas de recomendación. Por su parte, Amazon hizo pedidos de 900.000 unidades de sus chips Inferentia, igualmente diseñados para tareas de inferencia.
Estos desarrollos se suman a los de Google, que emplea sus TPU para entrenar y ejecutar modelos de lenguaje a gran escala, como Gemini, con un pedido estimado de un millón de TPU v5e y casi medio millón de TPU v5p solo en 2024. Amazon dispone también de su línea Trainium, con unas 366.000 unidades solicitadas este año, y Microsoft trabaja en las MAIA, parte de las cuales se estima superó las 190.000 unidades.
Perspectivas para el año que viene
Aunque el dominio de NVIDIA continúa, las previsiones de Omdia apuntan a que la empresa podría toparse con dificultades para expandir todavía más su participación en un mercado con un amplio abanico de alternativas. Sin embargo, la atención no se centra únicamente en el hardware, ya que la compañía pone el foco en las soluciones que faciliten el uso de la IA, como NVIDIA Inference Microservices (NIMs), con la intención de ampliar el alcance de sus tecnologías.
Pese a la intensificación de la competencia, NVIDIA ya ha anunciado nuevos aceleradores, como la familia Blackwell, y mantiene una estrategia de producto con lanzamientos anuales para conservar su liderazgo. Aun así, la tendencia hacia la diversificación del mercado de la IA ya es patente, y todo apunta a que el próximo año se definirá por la coexistencia de múltiples propuestas, tanto comerciales como desarrolladas a medida por cada gigante tecnológico.