其他硬件部署¶
Paddle Inference支持在非常多的硬件平台上进行推理,如果您使用的是x86 CPU或NVIDIA GPU以外的其他硬件平台,您可以在下表中查询您使用的硬件平台是否被Paddle Inference支持;
点击 安装指引与示例 一列中的对应链接即可跳转到对应硬件平台的说明文档,在文档中我们提供了详细的环境配置流程和开发引导供您参考。
Note
此处列举的硬件型号为经过验证测试的型号,在未列举的其他型号上安装Paddle Inference可能遇到兼容性问题
分类 |
架构 |
公司 |
型号 |
安装指引与示例 |
服务端CPU |
ARM |
飞腾 |
FT-2000+/64、S2500/64 |
|
服务端CPU |
ARM |
华为 |
鲲鹏 920 2426SK |
|
服务端CPU |
MIPS |
龙芯 |
龙芯 3A4000、3A5000、3C5000L |
|
服务端CPU |
x86 |
兆芯 |
全系列 CPU |
|
服务端CPU |
SW |
申威 |
申威 SW6A、SW6B |
|
服务端GPU |
AMD |
AMD GPU MI100 |
||
AI加速芯片 |
海光 |
海光 DCU Z100 |
||
AI加速芯片 |
XPU |
昆仑 |
昆仑 K200、R200等 |
|
AI加速芯片 |
达芬奇 |
华为 |
昇腾910 |
|
AI加速芯片 |
Graphcore |
Colossus MK2 GC200 IPU |