AI部署公开课!手把手带你快速掌握AI模型推理部署
收藏
快速回复
AI Studio平台使用 文章热门活动学习资料数据集 509 0
AI部署公开课!手把手带你快速掌握AI模型推理部署
收藏
快速回复
AI Studio平台使用 文章热门活动学习资料数据集 509 0

深度学习经过多年发展,AI 已经深入人心,事实上,在图像、文本领域,AI 在多个产业已经落地了诸多应用,我们熟知的自动驾驶、语音助手,背后就大量运用了 AI 技术。
 
当下,PaddlePaddle、TensorFlow、PyTorch 这样的开源框架已经非常强大,为部署侧也提供了相关的开源组件,以求降低开发难度。以 PaddlePaddle 框架为例,为了支持端侧预测,提供了 PaddleLite 推理引擎;为了提升预测性能,提供了 PaddleSlim 模型压缩工具。但即便如此,一方面,使用这些工具仍然有一定的开发门槛,另一方面由于端侧硬件、系统种类繁多,各种加速芯片层出不穷,框架工具很难完全支持和适配。因此,端侧部署开发工作仍存在实实在在的挑战,成为开发者将 AI 模型真正用起来的“拦路虎”。面对这些问题,是否存在一个平台,能够缩短部署开发的时间,实现一键式部署?同时对模型进行压缩提速,实现高性能推理?


百度 EasyEdge 专为解决以上问题而生,EasyEdge 以 PaddleLite、PaddleSlim 为基础,提供了简单易用的端上部署套件,实现不写代码直接部署模型到端侧,并支持二次开发。另外,EasyEdge 也扩展了对主流端计算硬件的支持,适配更广泛的硬件平台、操作系统、模型类型,并针对特定加速芯片使用专有的计算库,实现进一步的性能提升。
 
 五大灵魂拷问,AI 模型端部署难点在哪里?
 
灵魂拷问一:我的使用场景需要我将模型部署到端上,但是端上开发可能会面向嵌入式设备,操作系统也可能是 Android、iOS,有一定的上手成本,怎样才能更轻松地把模型落地到硬件设备上?


灵魂拷问二:这些年出了好多加速芯片、加速卡、边缘计算盒,价格便宜还不占地,我想知道它们跑模型能达到什么样的精度和性能,帮助我进行选型。


灵魂拷问三:我训好的模型适配 XX 芯片,要在各种模型格式之间转来转去,有点头大,好不容易模型格式对齐了,又有算子 OP 不支持,我该怎么办才能让它跑起来?


灵魂拷问四:我想换个芯片,却发现怎么各家芯片的端上推理模型格式都不一样,又得从头适配,模型转起来想想就头大。


灵魂拷问五:费了九牛二虎之力,模型在端上跑起来了,可是速度不是太理想,我想让它跑得更快,更省内存。听说量化、剪枝、蒸馏这方面挺有用,但是好像自己研究代码耗时太久。

问题多多,都可以在5月26日(本周四)20:00和我们的边缘部署专家共同探讨

easyedge开发与边缘部署技术方案解析课程来咯~~

抓紧时间扫码进入技术交流群

0
收藏
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户