论坛内容精彩预告
AI芯片行业现状、趋势及十四五展望
昆仑芯让计算更智能
硬件设计与软件算法融合,能让应用的性能和效果加倍提升。百度自主研发的昆仑芯2采用7nm制程,搭载自研的第二代XPU架构,适用云、端、边等多场景,可应用于互联网、智慧城市等领域,还将赋能生物计算、智能交通、无人驾驶等更广泛空间。同时,百度昆仑AI芯片针对语音、自然语言处理、图像等AI技术专门优化,支持飞桨等深度学习框架,使得AI模型计算效率更高、效果更好。
从TCO 评判AI加速产品
ARM携手飞桨,赋能端侧AI数字化升级
伴随着移动端和边缘端处理器能力上限的不断被突破,越来越多的深度学习算法被工程师们部署应用到该类型平台上。在过去的一段时间,飞桨与ARM开展了更加紧密的合作,并针对不同的ARM架构的指令特性,开展了多场景下计算与访存优化等方面的技术交流协作。
华为昇腾联合飞桨打造高性能计算方案
随着AI应用领域的持续拓展以及应用场景的不断细化,衍生出了非常多且复杂的AI芯片及硬件产品线,同一任务同一场景下的硬件选择也变得更为丰富。如今基于飞桨训练和推理部署框架,已完成多款芯片的适配,并在相应硬件上完成了多场景多模型下的验证工作。飞桨Paddle Lite已支持华为昇腾 NPU(Ascend310)在 X86 和 ARM 服务器上推理部署。
基于安培GPU稀疏特征的飞桨训练、推理与部署
在部署神经网络时,考虑如何使网络运行更快或占用更少的空间是很有用的。一个更高效的网络可以在有限的时间预算内做出更好的预测,对意外的输入做出更快的反应,或者适应受限的部署环境。稀疏性是一种有希望达到这些目标的优化技术。基于安培GPU稀疏特征的飞桨训练、压缩和推理部署,能够达到快速训练和推理的目的。
国产CPU与框架的碰撞:飞腾产业智能解决方案全析
人工智能技术的落地往往涉及多技术的协同应用,这是一个系统工程,任何一项技术、一个环节的短板都会制约整体解决方案的表现……虽然人工智能暂时有许多缺陷(泛化能力、鲁棒性、推理能力),我们相信通过AI、大数据、云计算、物联网等技术融合,通过广大开发者的共同努力,可以共同推进云、边、端的全局数字化、智能化。
飞桨在IPU上实现训练和推理全面支持
飞桨国产化一体机,打通AI落地“最后一公里”
预计到2022年,超过60%的中国大型企业将开发自己的AI解决方案。大数据与AI大模型时代到来,对算力的需求呈几何倍数增长,且算法模型越来越复杂,对服务器的异构计算、存储、网络等都有越来越明确的特殊要求。企业无力从0-1搭建一套深度适配AI模型的生产应用平台,亟需集合『算力+算法+工具』一体化、甚至“开箱即用”的AI一体机。