Los nuevos chips de Qualcomm están diseñados específicamente para tareas de inferencia, es decir, la ejecución de modelos de IA ya entrenados, en lugar del costoso proceso de entrenamiento. Esta especialización busca ofrecer una mayor eficiencia energética y un menor costo total de propiedad (TCO), un factor crucial para las empresas que operan grandes centros de datos.

Según la compañía, los procesadores están “listos para operar de inmediato”. Durga Malladi, vicepresidente senior de Qualcomm, explicó que la empresa aprovechó su experiencia con la unidad de procesamiento neuronal (NPU) Hexagon, ya utilizada en sus chips para PC y smartphones, para escalarla al nivel de los centros de datos. Una de las ventajas clave de los nuevos aceleradores es su capacidad de memoria, ya que admiten hasta 768 GB, superando las ofertas actuales de la competencia. Los chips AI200 y AI250 estarán disponibles comercialmente en 2026 y 2027, respectivamente, marcando el inicio de un ciclo anual de lanzamientos. Con esta incursión, Qualcomm se posiciona como un nuevo competidor serio en la carrera por la infraestructura de IA, un mercado dominado actualmente en más de un 90% por Nvidia.