logo
Casa Casos

AMD Instinct MI350P: Inferência de IA Enterprise PCIe retorna aos servidores padrão

Certificado
China Beijing Qianxing Jietong Technology Co., Ltd. Certificações
China Beijing Qianxing Jietong Technology Co., Ltd. Certificações
Revisões do cliente
A equipe de vendas da tecnologia Co. de Qianxing Jietong do Pequim, Ltd é muito profissional e paciente. Podem fornecer cotações rapidamente. A qualidade e o empacotamento dos produtos são igualmente muito bons. Nossa cooperação é muito lisa.

—— LLC do》 de Festfing DV do 《

Quando eu procurava o processador central de intel e o SSD de Toshiba urgentemente, Sandy da tecnologia Co. de Qianxing Jietong do Pequim, Ltd deu-me muita ajuda e obteve-me os produtos que eu precisei rapidamente. Eu aprecio-a realmente.

—— Kitty Yen

Sandy da tecnologia Co. de Qianxing Jietong do Pequim, Ltd é um vendedor muito cuidadoso, que possa me lembrar de erros da configuração a tempo quando eu compro um servidor. Os coordenadores são igualmente muito profissionais e podem rapidamente terminar o processo de teste.

—— Strelkin Mikhail Vladimirovich

Estamos muito satisfeitos com a nossa experiência de trabalho com a Beijing Qianxing Jietong. A qualidade do produto é excelente e a entrega é sempre pontual. A equipe de vendas é profissional, paciente e muito prestativa com todas as nossas perguntas. Agradecemos muito o seu apoio e esperamos uma parceria de longo prazo. Altamente recomendado!

—— Ahmad Navid

Qualidade: Ótima experiência com o meu fornecedor. O MikroTik RB3011 já estava usado, mas estava em muito bom estado e tudo funcionava perfeitamente.E todas as minhas preocupações foram resolvidas rapidamente.Fornecedor muito fiável, altamente recomendado.

—— Geran Colesio

Estou Chat Online Agora

AMD Instinct MI350P: Inferência de IA Enterprise PCIe retorna aos servidores padrão

May 11, 2026
A AMD lançou oficialmente o Instinct MI350P, um novo acelerador PCIe feito sob medida para usuários corporativos que buscam inferência de IA local sem revisões em sua infraestrutura de data center existente. Apresentando um formato de slot duplo, altura total e comprimento total, esta placa gráfica é totalmente compatível com servidores convencionais refrigerados a ar. Também marca o primeiro lançamento da AMD de um chip Instinct da geração atual projetado para slots de servidor padrão em quase quatro anos.

mais recente caso da empresa sobre AMD Instinct MI350P: Inferência de IA Enterprise PCIe retorna aos servidores padrão  0
AMD Instinto MI350P

A linha de produtos Instinct baseada em PCIe da AMD permaneceu estagnada após o lançamento do MI210 no início de 2022. Todas as gerações subsequentes, incluindo o MI300X, MI325X e MI350X no formato OAM, adotaram módulos com soquete OAM montados em rodapés universais dedicados. Esses módulos exigem gabinetes personalizados com fornecimento de energia e fluxo de ar robustos para suportar até oito aceleradores de classe de 1.000 W em uma única bandeja. Essa arquitetura de hardware é adequada para provedores de nuvem em hiperescala que compram racks de GPU em massa, mas não consegue acomodar empresas regulares que não desejam ou não conseguem implantar racks de IA personalizados para tarefas de inferência no local. O MI350P preenche precisamente esta lacuna do mercado. Atualmente, a NVIDIA carece de um concorrente PCIe de nível de servidor de última geração neste segmento, deixando a AMD com exclusividade temporária de mercado.

Comparação de hardware: MI350P versus MI350X OAM


O MI350P não é uma variante reduzida do MI350X; A AMD projetou um chip independente e simplificado para este novo modelo. O MI350X integra duas matrizes de E/S emparelhadas com oito matrizes complexas de acelerador (XCDs), fornecendo 256 unidades de computação no total. Em contraste, o MI350P contém um dado de E/S e quatro XCDs, o que equivale a 128 unidades de computação. Apesar de reduzir pela metade a escala de silício, ele mantém uma frequência de clock de pico de 2,2 GHz idêntica à de seu equivalente de nível superior. A configuração de memória segue a mesma especificação rebaixada: quatro pilhas HBM3E (contra oito), um barramento de memória de 4.096 bits (abaixo dos 8.192 bits), juntamente com capacidade de memória de 144 GB e largura de banda de 4 TB/s, em comparação com a taxa de transferência de 288 GB e 8 TB/s do MI350X.

mais recente caso da empresa sobre AMD Instinct MI350P: Inferência de IA Enterprise PCIe retorna aos servidores padrão  1
Arquitetura AMD Instinct MI350P

O pico de rendimento da computação também é reduzido pela metade. O MI350P atinge 4.600 TFLOPS MXFP4 contra os 9,2 PFLOPS do MI350X, junto com 2.300 TFLOPS FP8 em comparação com os 4,6 PFLOPS do modelo premium. As métricas de desempenho para BF16, FP16 e outros padrões de precisão seguem o mesmo declínio proporcional. Notavelmente, a AMD publicou dados de desempenho sustentado de pico e do mundo real para maior transparência. O cartão oferece 2.299 TFLOPS no MXFP4, 1.529 TFLOPS no FP8 e 713 TFLOPS no BF16. Esses números práticos refletem a produção real dentro de um envelope de potência de 600 W, onde as restrições de energia e as limitações de largura de banda de memória inevitavelmente reduzem o desempenho máximo teórico.

A equipe editorial avaliou anteriormente a plataforma MI350X por meio do programa Jumpstart da Supermicro e reconheceu seus robustos recursos de carga de trabalho de inferência. A equipe está ansiosa para realizar testes práticos do MI350P, analisando o desempenho deste acelerador de fator de forma PCIe em chassis de servidor comuns.

mais recente caso da empresa sobre AMD Instinct MI350P: Inferência de IA Enterprise PCIe retorna aos servidores padrão  2

O MI350P não apresenta redução de energia de 50%, apesar de sua escala de silício reduzida pela metade. Ele carrega uma potência TBP de 600W, equivalente a aproximadamente 60% do limite de 1000W do MI350X. Este pico de potência atinge o limite superior da especificação PCIe CEM, executando a placa no limite térmico máximo do slot. Um modo operacional reduzido de 450 W está disponível para servidores com resfriamento insuficiente, acompanhado de cortes moderados de desempenho. Posicionado na mesma faixa de potência, o MI350P compete diretamente com o servidor H200 NVL e RTX Pro 6000 da NVIDIA para compras empresariais.

Ao contrário do H200 da NVIDIA com interconexões de alta velocidade NVL4, o MI350P desativa a exposição do Infinity Fabric. Toda a transmissão de dados entre GPUs é limitada à largura de banda de 128 GB/s do PCIe Gen5 x16.

Implantação refrigerada a ar com oito GPUs


Como uma placa FHFL PCIe padrão de slot duplo, o MI350P é compatível com servidores corporativos existentes. Os principais OEMs oferecem modelos densos de oito GPUs refrigerados a ar, incluindo o Dell PowerEdge XE7740 e o HPE ProLiant DL380a Gen12 analisados ​​anteriormente. Otimizadas para aceleradores de 600 W, essas plataformas não exigem racks personalizados, refrigeração líquida ou rodapés OAM.

Uma configuração MI350P de oito placas oferece 1.152 GB HBM3E e largura de banda agregada de 32 TB/s, suficiente para hospedar modelos de trilhões de parâmetros com precisão MXFP4 em um chassi refrigerado a ar. No entanto, sacrifica tecidos de escala dedicados. Enquanto o MI350X utiliza Infinity Fabric para comunicação rápida entre módulos, o MI350P depende exclusivamente do PCIe Gen5. Esta arquitetura é adequada para paralelismo de tensor local de nó e paralelismo de dados entre nós para inferência, enquanto o MI350X baseado em OAM permanece superior para tarefas de treinamento de IA com uso intensivo de largura de banda.

Formatos de precisão


O MI350P herda todos os formatos de precisão do MI350X sem atualizações. Os tipos de escalonamento de blocos OCP, incluindo MXFP4, MXFP6 e MXFP8, tornaram-se comuns no desenvolvimento de modelos de IA, permitindo treinamento de baixa precisão com degradação de qualidade insignificante. O MXFP4 oferece o dobro da velocidade do FP8 e quatro vezes o rendimento do BF16. Casos do mundo real, como OpenAI gpt-oss e Kimi K2.6, comprovam o valor da quantização nativa de baixo bit. Como os pesos MXFP4 e INT4 ocupam apenas 25% do espaço de memória do BF16, modelos de trilhões de parâmetros podem ser implantados em um único servidor de oito GPUs, eliminando clusters de vários nós complicados para empresas locais.

Conclusão


A maioria das empresas de IA no local são limitadas pela energia, refrigeração, densidade e orçamento, e não pela capacidade de computação bruta. O MI350P drop-in alivia efetivamente essas barreiras de implantação. Como a NVIDIA não possui uma GPU de servidor PCIe carro-chefe neste segmento, a AMD mantém uma clara vantagem competitiva por enquanto. Mais detalhes estão disponíveis na página oficial do Instinct da AMD.

Pequim Qianxing Jietong Technology Co., Ltd.
Sandy Yang/Diretora de Estratégia Global
WhatsApp/WeChat: +86 13426366826
E-mail: yangyd@qianxingdata.com
Site: www.qianxingdata.com/www.storagesserver.com
Foco de negócios:
Distribuição de produtos de TIC/integração de sistemas e serviços/soluções de infraestrutura
Com mais de 20 anos de experiência em distribuição de TI, fazemos parcerias com marcas líderes globais para fornecer produtos confiáveis ​​e serviços profissionais.
“Usando a tecnologia para construir um mundo inteligente”Seu provedor confiável de serviços de produtos de TIC!
Contacto
Beijing Qianxing Jietong Technology Co., Ltd.

Pessoa de Contato: Ms. Sandy Yang

Telefone: 13426366826

Envie sua pergunta diretamente para nós (0 / 3000)