MATLAB与TensorRT集成来加快AI应用
才能我浪费99 发布于2018-04 浏览:1872 回复:11
1
收藏

2018 年 4 月 11 日 – MathWorks 今日宣布 ,MATLAB 现在可通过 GPU Coder 实现与 NVIDIA TensorRT 集成。这可以帮助工程师和科学家们在 MATLAB 中开发新的人工智能和深度学习模型,且可确保性能和效率满足数据中心、嵌入式应用和汽车应用不断增长的需求。

“不断发展的图像、语音、传感器和物联网 (IoT) 技术促使团队以更好的性能和效率研究人工智能解决方案。此外,深度学习模型变得越来越复杂。所有这些都给工程师们带来了巨大的压力,” MathWorks 总监 David Rich 说。“现在,团队可以使用 MATLAB 训练深度学习模型,NVIDIA GPU 可以将实时推理部署到从云端到数据中心到嵌入式边界设备等各种环境中。”

收藏
点赞
1
个赞
共11条回复 最后由才能我浪费99回复于2018-11
#12才能我浪费99回复于2018-11
#9 求代课1357回复
训练深度学习的模型想必很有用

这个是毋庸置疑的

0
#11才能我浪费99回复于2018-11
#10 秘密花园jay回复
我感觉以后的电脑发展,应该会成为一台家庭大脑服务器的感觉。

这个很可能就是未来的趋势

0
#10秘密花园jay回复于2018-11
#8 才能我浪费99回复
是啊AI,物联网这些未来肯定会大大的改变我们的社会的

我感觉以后的电脑发展,应该会成为一台家庭大脑服务器的感觉。

0
#9求代课1357回复于2018-10

训练深度学习的模型想必很有用

0
#8才能我浪费99回复于2018-10
#7 秘密花园jay回复
物联网的时代到来了

是啊AI,物联网这些未来肯定会大大的改变我们的社会的

0
#7秘密花园jay回复于2018-10

物联网的时代到来了

0
#6求代课1357回复于2018-10

集成的加入确实能加快进度吧

0
#5秘密花园jay回复于2018-05

能让技术能更快的落地实施

0
#4酩酊醉酉回复于2018-04

ai发展仍需更多推力

0
#3才能我浪费99回复于2018-04

MATLAB 与 NVIDIA 结合,算法+硬件,感觉会对业界有比较大的推动

1
#2才能我浪费99回复于2018-04

上传的时候一直审核不过,最后删成这个样子

1
快速回复
小编推荐
AI的思维
Baidu Create 2018全程回顾
TOP
切换版块