2018 年 4 月 11 日 – MathWorks 今日宣布 ,MATLAB 现在可通过 GPU Coder 实现与 NVIDIA TensorRT 集成。这可以帮助工程师和科学家们在 MATLAB 中开发新的人工智能和深度学习模型,且可确保性能和效率满足数据中心、嵌入式应用和汽车应用不断增长的需求。
“不断发展的图像、语音、传感器和物联网 (IoT) 技术促使团队以更好的性能和效率研究人工智能解决方案。此外,深度学习模型变得越来越复杂。所有这些都给工程师们带来了巨大的压力,” MathWorks 总监 David Rich 说。“现在,团队可以使用 MATLAB 训练深度学习模型,NVIDIA GPU 可以将实时推理部署到从云端到数据中心到嵌入式边界设备等各种环境中。”
请登录后评论
TOP
切换版块
这个是毋庸置疑的
这个很可能就是未来的趋势
我感觉以后的电脑发展,应该会成为一台家庭大脑服务器的感觉。
训练深度学习的模型想必很有用
是啊AI,物联网这些未来肯定会大大的改变我们的社会的
物联网的时代到来了
集成的加入确实能加快进度吧
能让技术能更快的落地实施
ai发展仍需更多推力
MATLAB 与 NVIDIA 结合,算法+硬件,感觉会对业界有比较大的推动
上传的时候一直审核不过,最后删成这个样子