主题:视频场景数据处理及模型训练
时间:2020年5月29日(线上)
讲师:NVIDIA高级解决方案架构师张海军主要负责NVIDIA Jetson系列产品技术及架构相关的解决方案
【课程大纲】
1. 视频应用场景分析及行业介绍
a) AI在视频行业中的应用
b) 视频应用流程及痛点
2. 视频应用开发实践
a) EasyDL training简介
b) Jetson平台在边缘端上的应用
c) DeepStream SDK简介
d) 使用DeepStream来解决智能结算应用中的分类问题
首先,视频应用目前在全球或者国内都有非常广泛的应用,覆盖许多行业。
- 写字楼或者地铁、安检、机场都有深度ID比对,人脸识别,或者其他的行为检测,行人的聚集点,有非常多基于图像的应用。
- 车站内的逃票或者丢失寻找的视频视觉的应用。
- 检测场景,在手机制造和PCB,芯片制造行业都会遇到很多的检测问题,比如良品率的问题,传统的焊接会产生各种各样的漏焊或者不规则导致的缺陷,利用这个可以解决传统的算法,来检测无法避免精度的问题,能够带来很好的效率,同时也能处理大量的数据,因为在不停迭代生产过程当中,随着不同产品,包括缺陷的多样性,对缺陷检测带来了挑战。
- 交通场景,视频应用是一个非常典型的案例,它给整个城市交通疏解和调度带来了很大的便利,整个城市的视频数据是一个非常大的数量级,不仅需要很高的算力,同时也要求有很高的实时性。
- 零售场景,在大型商场里不但有安全相关的需求,同时有一些消费类的画像,用户消费习惯的跟踪,还有能够实时捕获,实现零售行业的无人化、智能化以及高效化。
- 物流行业中,目前国内大部分物流分拣以及打包包括运输都已经实现基于视觉或者辅助传感器的自动化,同时给这个行业带来很高的效率,同时能够减少人力的成本。
- 在更大范围场景里,例如机场,可能利用人为或其他方式无法很好解决,利用视频就可以非常容易覆盖更多的信息,解决调度的问题。
- 在安全性方面,也有非常广泛的应用,特别是像人员比较密集,以及车辆和其他的安全性,这种视频类的应用也是非常广泛,也是非常迫切的需求。
可以看到前面列举几个比较典型的例子里,也能够看到整个视频应用的场景非常典型,都是处理基于视频相关的,也就是处理图像或者视频应用。然后通过解码做预处理,然后到深度学习的网络,然后对输出的结果做二次处理,你可以传送到云端做一些调度,也可以在现场直接做实施的交互相应,整个的应用非常的类似,相似度非常高。针对这些相似度非常高的应用,我们就很容易标准化这样的框架来优化整个pipeline,达到提升应用的能力。截止到今年的统计,大概全球有10亿个像这样的视频部署,也就是说视频应用几乎所有的传感器里最多的,因为基于图像的信息非常的丰富,而且多样化,也是其他所有传感器是不能比拟的。
下面介绍一下我们今天实践的内容。一个完整的应用会从数据采集到训练到后期的部署,这三个步骤里,第一个是要解决数据采集的问题,数据来源于生产和生活,也是我们用户掌握的。第二步就是训练。第三步就是选择合适的平台,根据业务场景,通过推理来解决实际的问题。
今天我们这个DEMO模型是通过EasyDL训练得到的,EasyDL前面几节直播课都有非常详细介绍。EasyDL它支持很多种类的模型,同时有专业版和经典版可以供大家选择,经典版就相对比较步骤简单明了,专业版也适合有定制化需求,有更高定制化目的做更深层次的模型的训练和定制化。整个界面非常简洁,用户只需要上传数据,然后打自己的标签,选择合适的模型,训练完以后就可以拿到自己的模型,可以通过EasyDL部署,也可以通过其他的方式,今天我就给大家介绍通过Jetson的DeepStream来做部署。
在这之前我给大家介绍一下Jetson这个平台,Jetson平台目前已经有Nano,TX2,Xavier,NX,8G/16G,算力从1.5T到21T,到性能最高的32T,功耗从5W到15W一直到最高的30W,能够覆盖到比较常见的像视频应用以及辅助驾驶,机器人,以及各种无人车,这种非常典型的应用,30W的应用是最高的一款,同时性能也是最高的,大家可以根据不同的场景选择使用哪款产品,Nano保留了经典的接口,比如说PCIE等很多主流的接口,算力较低,功耗较低。更为复杂的,比如说对传感器要求比较高,针对无人车的应用或者机器人应用,你可以选择TX2,接口非常丰富,算力也非常突出,同时支持mipicamera这样的传感器,最高支持2个lane6路,很适合做传感器融合,同时兼顾深度学习的应用。再高端的NX,它能够提供更高的算力,如果你的实际应用对算力比较敏感,NX是比较好的选择,功耗和TX2一样,算力高很多,接口较少一些。Xavier是我们里面接口最全,也是算力最高的,你可以当做一个小的服务器在辅助驾驶里用也是非常合适。不管是硬件还是软件都会给大家统一的架构,很多的底层的硬件接口都是统一的,版本也是统一的,每次我们发布新的版本都会涵盖所有产品系列,版本是统一的。如果你的应用在不同的平台之间来回切换非常容易,没有额外的成本,是在统一的架构里。
我们知道不管是IVA还是机器人还是无人车的应用,针对不同的行业、场景以及应用都会对产品本身有很高的定制化的要求,我相信仅仅依靠硬件定制满足产品需求基本是不可能,因为需求多变,在前期不确定的情况下,高度的灵活,以及后期满足不停的迭代需求,这样必然是软件定义的架构,也就是说硬件提供最基本的计算能力,应用场景通过软件不同实现来满足。比如说机器人或者无人车这种直接交互的应用,感知、决策和推理这是三个主要的方面,这是一个完整的循环,在实际应用场景里,感知是获取环境当中的图象数据、超声波或者红外,基于感知数据基础之上,利用GPU加速推理相关的结果,做出相关的决策,同时适应周围环境的变化,解决实际的问题。所有这些应用都会基于最核心的几个lowlevel库,最上一层是各种应用和framework,EasyDL,具体的应用比如基于红外或者路径规划的,这就是满足行业不同的需求。
Jetson目前围绕整个行业的需求也衍生出非常多的partner,在整个生态里围绕用户的需求出现非常多的,比如说定制硬件,做各种载板,提供各种算法的,最终目的就是为了解决实际场景,用AI也好,嵌入式也好,都是为了解决实际的问题。在Jetson上做一个解决实际问题的产品非常快速,因为你不需要从0到1,把所有东西都自己实现一遍,合理的利用生态里的产品,更快的把精力放在你擅长的方面,这是JetsonSoftware的stack。上层是我们的硬件,中间是DeepStream,IsaacSDKs,处理各种矩阵计算和视频相关的加速库,这些典型的库都有Jetson上面的硬件支撑,下面会详细给大家介绍。DeepStream解决IVA行业相关应用,我们把所有典型的IV应用需要的环节覆盖到,我们设计这样的环节,有高度优化,不管是客户还是开发者,直接利用这样的框架实现自己的实际的应用,不需要再解决如何解码,如何搭建整个框架,优化pipeline,这些都在DeepStream里做好了。Isaac是针对机器人或无人车上推出的SDK,但是它是由底层加速盒和硬件支撑的,非常高效。
DeepStream它是基于开源的Gstreamer框架,是plugin的形式,通过流式的传递到每个环节,流动到每个plugin,能实现自己相关的功能,用户或者开发者都可以自己通过不同的plugin组合解决实际的问题。可以看到,DeepStream里面实现的功能,首先DeepStream对IVA的典型应用就是解码,这是非常重要的环节,因为有不同的格式,比如USB或者MIPIcamera,有可能是其他的,比如黑白或红外的,这些输入的支持和读取解码已经在DeepStream集成好,你根据自己的需要配置成不同的模式就可以。下一步就是decode,基于Gstreamer构建推理引擎,也就是说所有应用直接可以在DeepStream上跑。同时DeepStream对不同的网络以及后续的根算法,以及360镜头这种视频的校正,还有其他的,跟云端的通信,比如说IOT相关应用,消息的发布,以及分布式,像这样典型的应用,里面会涉及到各种通信的协议以及如何部署发布,以及多视频的管理,包括stream管理,都在DeepStream里已经做好,用户只需要简单的配置就可以利用起来。同时Jetson所有内存之间是统一的,不管是GPU还是不同的processor之间互相的流动,它是内存直接可以共享的。
再进一步,面向非常高层的,比如你可以选择在大卡上部署,也可以在云端部署,也可以在jetson上部署应用,直接解决相关的问题,把得到的解果存储下来,或者分析的数据通过我们已有的组件跟云端交互。同时提供了Transferlearning,可以在DeepStream里应用,IOT分布式的应用就可以很容易部署大规模的IVA的应用。
下面DeepStream的底层就是我们的硬件或者是TESLA,DeepStream都是可以运行的。最上层就是CUDA,衍生了很多应用,这个CUDA包括各种硬件编辑码都可以在Deepstream里访问到。在这之上就是跟编解码和转接码,做缩放和格式转化的,这些都已经封装在DeepStream里了,有很多常见的编码都是支持的,包括H264/265/RTSP,还有IOT相关的应用,DeepStream里已经把这部分绿色的,包括IOT相关的协议已经做好,而且大部分的案例都有相关的原码供大家参考,最上层就是利用DeepStream解决实际的问题,这是用户定义的。
接着往下走,这是DeepStream内部的framwork,前面介绍的比较关键的是capture,然后是decode,然后是inference,这里会更加详细给大家展示这样的流程。第一步是基于多媒体的应用,可以是视频或图像,通过网络获取一些网络流,或者访问USB,或者是mipicamera,第二步就是利用Jetson集成硬件的DECODE,DeepStream已经做了集成,底部的差异,比如在Jetson和大卡上切换已经做了隐藏,你只需要简单的配置,并不需要关注底层,就可以做到非常高性能的编解码性能,比如Nano支持8路1080P30帧这样的解码。再一步就是非常关键的,也就是在很多平台里都会遇到的,不管是做Training还是inference,就是格式转化,同时要做浮点转化,做一个缩放,这些都是非常常见的应用,这些是实时的过程,对算力和性能都有一定的要求,如果在CPU做基本很难做到实时,在Jetson上就有很多种选择,比如用我们专用的硬件VIC来做各种转化,也可以用我们的GPU实现这些预处理,这些非常关键,因为在实时预处理当中,你留给解码的时间是非常少的,因为30帧的应用就33.333毫秒,后面还有一个非常好的性能,所以要合理安排每一步每一环节的性能都要足够,才能达到实时的应用。如果是多路的视频应用会涉及到gstream处理,多路视频流管理,这部分会有DeepStream的plugin,会有这样的插件管理,帮大家做,大家可以动态的配置调整。后面就是分类应用,可以在GPU上跑,如果是inference,如果是Nano可以在GPU上跑。后面涉及到二级网络、三级网络、四级网络,比如做tracking,可以在GPU上跑,也可以在PVA上跑,简单的可以在CPU,复杂的建议在专用的处理器上做,GPU或者PVA,达到实时的效果。后端可以把原来的图像做缩放,你可以选择存到本地,或者通过集成rtspserver直接输出到一个端口,就可以实时拉到这个视频流,所有这些都在DeepStream已经做好了。
下面就是DeepStream里的核心框架的各种插件,这些插件来回组合就能满足你非常多的应用。简单给大家过一下,第一个是编解码,会调用底层的编解码硬件。第二会调用DLA和GPU,第三个是我们已经实现的跟踪算法,比如KLT、IOU、NvDCF,对CPU占用非常低,效果也是最好的一个。下面是关于消息的传递和云端交互,IOT场景会用到。下面是多路视频管理,包括语言管理,下面是render,在各种图像上操作都可以用这个,这个是用GPU做的,非常高效。再下面是视频管理,你可以有32路,可以renders到不同的应用里去,有不同的排除组合下面是通过EGL加速渲染做各种显示用的。Scaling做格式转化和缩放,包括旋转去噪,这个功能也非常强大,DeepStream已经封装在videoconvert这样的插件里。下面是关于鱼眼的校正,下面是数据校正,一级网络想传输给二级网络,可以通过这个插件做。再下面是显示模块,关于分割的显示插件。再下面是光流,更多的详细信息可以登录我们的官网了解。
下面就是我们今天介绍CASE,第一个是直接从视频文件里读取,第一步会做DECODE,第二步做一个EdgeBoard,再后面是分类,因为解决水果称重这样的问题,你首先要定义属于哪一种水果蔬菜,基于这个才能得到它的重量和价格,这是实时交互的应用,也就是它对速度和精度都有很高的要求。再后面可以下载或者生成一个流给第三方看。
这里首先给大家介绍一下DeepStream,刚才已经介绍了很多的核心的插件,我们只需要通过配置就可以实现这些功能。第一个给大家介绍一下实际案例用到的配置的含义,以及实现的是什么功能。首先GPU—ID,在Jetson上一直都是0,在一些大卡有很多的GPU,你可以直接运行。下面是scaleing,再下面是softmax,它跟后面讲到的mean,这两个二选一都可以,model是我们原始的网络,今天这个就是用EasyDL训练得到的网络模型。classifier是网络文件,这两个是必须的。下面是engine,优化好以后可以保留下来,它的速度非常快,体积也会减少,也不需要重新做一次处理和优化。下面就是layer分类,下面是本次网络的输出,再下面是默认的batch维度,batch是8,这是常见的参数。再下面是Notebook可以选择运行在16的模式或者8,因为这个是在nano上做的,支持IP16,所以我们选择2,如果在Xavier可以选择8,目前是一级网络,我们直接输出的是分类的结果,如果网络级联可以选择二级或者三级或更多。Model-color就是你的模型接受的颜色格式。
下面是gie—unique,它是非常重要的,下面也是同样的输出,然后有一个选择是阈值是多少,目前运行的是Classifier,还有分割的,还有其他的,tensor-meta是一个结果传输,如果用多网络级联,这个是非常好用,用来传递结果数据,可以自定义,把这些结果数据传递到下一级网络做各种定制化操作。这个涵盖了各个方面,也是非常的丰富,基本上大部分的核心功能都通过配置文件的形式给大家实现好了。
我已经提前把DEMO原码放到了这个位置,DeepStream你在Jetson刷机以后默认会安装在/opt下面,包括很多的sample,我们直接按照这个步骤进去,给大家编译演示一下。
我们直接切到JetsonNano上面,我已经进到原码里去了,给大家看一下,配置文件刚才给大家介绍了,是一样的。同时原码也是刚才需要的几个文件,这个文件已经编译过了,直接用默认版本就可以了,这个已经编译过了。因为DeepStream默认的是支持端上,可以在云端部署,也可以在端上部署,这个是在端上部署,跑这个DEMO,制定一个文件,告诉它用哪个文件,运行一下。
这是一个水果蔬菜的分类,第一个是胡萝卜,已经识别出来了,第二个是土豆,再下面是西红柿,可以看到清晰度、分类都已经展示出来了。再看一遍,还是相对比较稳定,这是Nano上运行的,而且帧率是实时的,也就是说这样的网络在Nano上运行已经能达到至少30帧,给大家看一下,通过tegrastats可以监控一下GPU的利用率。这里有一个GRD3D,GPU频率是921,前面百分比有的时候不是99%的状态,也就是说当前这个应用并没有把整个GPU性能占满,也就是说它还有一定的空间,这就是DeepStream应用的案例,DeepStream还有更多的应用,可以来NVIDIA的官网查看。
【Q&A】
Q:有同学问DeepStream是哪个版本?
A:当前这个DEMODeepStream是我们最新的版本,5.0版本。对应是jetpack4.4的DPrelease。
Q:Nano已经把GPIO制定好了,有GPIO模块或定制图纸吗?
A:有的,都在Jetson里下载,GPIO很多,还有很多可以复用,你可以自己定义或者更改。
Q:只能用Jetpack4.2.2吗?
A:版本可以自己选择,但是我们推荐用最新的,因为我们每6个月都有大版本的更新,同时有更多小版本更新,每次版本更新都会带来很多新的feature,包括性能增强和优化。
Q:EasyDL迭代更新模型以后会怎么收费?
A:EasyDL目前专业版是训练收费的,但是有100小时免费的时间,经典版目前训练是免费的,根据设备授权方式不同会有不同的收费方式,具体可以看EasyDL的文档,里面都有详细的价格说明。
在EasyDL迭代更新模型的时候不收费,在后期调用是根据你API调用,这是后付费,根据调用次数,如果部署SDK的话这是预付费模式,大家可以看EasyDL官网有价格文档,有详细介绍。
Q:DeepStream得到的ID数据可以拿到吗?
A:可以拿到。
Q:没明白DeepStream是用来干什么的,您解释一下
A:DeepStream是一个框架,整合Jetson所有的硬件资源,给你做了高度的优化,比如不需要关注它们之间如何解码的,内存如何传递的,只需要准备好自己的模型,选择合适的配置去实现自己的视频应用,就是做各种视频的AI应用,整个框架搭建好了,你运行这个框架就可以得到很多,一个团队需要半年或者一年迭代这样一个工作。
Q:DeepStream是开源的吗?
A:DeepStream我们目前基本上绝大多数的代码都是开源的,有一部分小的库是直接调用的,绝大部分都是开源的。
Q:好的,DeepStream和目标检测有什么区别?
A:DeepStream是一个框架,它支持分割模型,检测、分类,包括以后会支持更多的模型应用,它是一个整体的框架,是PIPELINE框架,是高度优化的。
Q:如果大家想了解更多DeepStream,在哪里可以看到使用文档吗?
A:我们的官网里针对DeepStream有专门的页面,里面会有开发文档和sample文档,包括原码介绍和应用案例,很多可以直接拉下来看到效果。
Q:大家想了解更多DeepStream,可以在官网上搜索一下。DeepStream对输入的摄像头有什么要求吗?
A:DeepStream目前支持USB摄像头,MIPICSI,也支持RTSP,包括其他的摄像头都支持,包括本地存储的,像MP4,264的文件都支持,基本上常见的网络文件多音频文件都支持。
Q:有同学问一个模型还是多个模型分别处理多路视频?
A:这个取决于你的实际应用如何配置,你可以选择DeepStream运行多个模型,然后针对一个模型,也可以是不同的视频匹配不同的模型,也可以是同样一个视频级联多个模型,你可以任意组合。
Q:刚刚水果实战的代码哪里可以下载?
A:这是我本次做了一个DEMO,如果后面方便的话我可以给大家分享出来,也是基于DeepStream已有的sample上做了一些简单的更改。
Q:DeepStream inference算法怎么换成自己的算法?
A:这一部分如果你更换算法,你需要自己封装一个plugin,同时你对上一级的inference输出,比如识别某个类别的object,针对这个object做一个bbox,把这部分的数据通过metadata,给了一个接口传递到最后一层,拿到这个数据就可以直接跑自己封装好的算法。
Q:好,有同学问现在买到TX2是已经安装在jetpack吗?
A:正常的我们的devkit是带jetpack的,但是可能是发货时的版本,有的模组是比较全新的,里面没有,你可以自己刷一下,非常的简单,官网都有各种教程。
据我所知从EasyDLTX2软硬一体方案,拿到这TX2是不拆机的,你需要有一个刷机的过程。
Q:官网有教程DeepStream和PaddlePaddle是同一类东西吗?
A:PaddlePaddle是非常大的框架,有点类似于tensorflow,DeepStream是一个inference的框架。
Q: TX2刷机包括DeepStream吗?
A:你可以刷机的时候勾选到DeepStream,可以自己装好,如果不勾选可以通过单独的DEB或者原码的方式安装都可以。
Q:DeepStream可以结合深度学习吗?
A:可以,目前已经有相关的案例可以参考。
Q:怎么才能知道jetpack装好了呢?
A:比较简单的就是你直接查上显示器,如果有界面就安装好了,如果没有刷机一下,你可以接着安装。
Q:DeepStream是专门用来做计算机视觉的吗?
A:你可以这么认为,而且我们收集了各个行业的视频的应用,解决大家从0到1开发的过程,给大家做好了这样的框架,如果用DeepStream很多常见的IVE应用直接可以拿DeepStream做产业应用直接部署,不需要再做很多的开发。
Q:好。DeepStream后面会支持YOLOV4吗?
A:应该会,现在DeepStream已经有YOLO2、3,包括更新的版本,直接可以运行,已经做好了,后面会加YOLOV4。
Q:这些资料有没有一些中文版的?
A:暂时没有。
Q:DeepStream有其他语言的接口和包吗?
A:有Python版本。
Q:自己开发的模型可以放在DeepStream中吗?
A:可以。DeepStream就是提供一个完整的框架,给了很多的例子,其实还是希望用户把作为精力放在模型上面,框架我们已经给了,剩下就是你把模型换成自己需要的模型直接解决视频问题就可以。
关于视频的回放地址,大家可以在B站,百度大脑账号里就可以看到各种课程的回放,大概会在隔天上传,这也是取决于B站审核时间来看,我们会尽快上传。
Q:老师您这边使用是C++还是PYTHON?
A:今天的DEMO世界是用C++,大部分的AI应用都是混合的开发,编译的时候肯定会用到CUDA或者CPP,但是用Deepstream的话,只涉及到C++就可以了,如果用python接口直接用python就可以。
Q:DeepStream是应用到点云检测方面的检测吗?
A:点云你可以了解一下isaac,DeepStream主要是处理视频相关的应用,关于点云在一些robot或者无人车机器人上面用,isaac里面有更多的优化,包括SDKsample供大家做二次开发。
Q:4.0和5.0版本有什么差异?
A:5.0版本首先对python进一步做了完善,Docker应用做了更强,增加了新的案例和参考例子,详细可以看一下5.0里有详细的说明。
Q:JetsonNano可以进行模型训练吗?
A:可以,但是不建议,因为Nano不适合做训练,因为时间太长,而且内存比较适合做inference。
Q:DeepStream在视觉导航方面有应用吗?
A:视觉导航建议了解isaacSDK,它主要解决这个问题,DeepStream主要是解决比较统一或者纯粹的高度一致的视频+AI,就是推理相关的应用,属于两个不同的行业应用范围,了解一下isaac。
Q:EasyDL怎么装到DeepStream上?
A:后续我们会在EasyDL发布官方的DeepStream支持,大家从DeepStream官方平台支持下来的EasyDL都是针对DeepStream封装好的,大家可以像现在的SDK一样,一键就可以跑起来,这个后续会发布,大家可以关注一下。
Q:可以接海康大华摄像头进行处理吗?
A:可以,海康大华摄像头结合DeepStream用的比较常见,也用的非常多。
Q:请您解释一下您刚才说的inference是什么意思?
A:通俗点就是跑各种神经网络深度学习模型,就是做推理的意思。
Q:请您介绍一下NVIDIA有几种型号的计算卡,分别算力都是多少?
A:这次主要介绍Jetson应用,我主要介绍一下,至于大卡型号非常多,可以在官网上得到更专业的咨询。Jetson目前主流有Nano、TX2,NX,Xavier,Xavier有8G、16G、32G,算力从0.5T到1.3T,到NX21T,Xavier32T都有不同的覆盖,可以根据不同的应用选择不同的版本,接口都是统一的。
Q:刚才说Nano不太适合模型训练,TX2适合训练吗?
A:Jetson主要针对边缘端的应用,也就是主要针对推理的应用,训练更关注的是吞吐量以及效率,更多的训练相当于是一次投入,inference可以是多次,如果你拿一个应用做推理的性能设备做训练应该是得不偿失,不太适合。
Q:DeepStream是解决了什么样的痛点呢?
A:简单举个例子,如果你想做人脸识别应用,你需要特定的设备获取图像和第三方数据,首先解决这个数据如何获取,获取以后怎么访问,先要解码,而这个解码不具备相关的知识不太清楚怎么解,不同的格式,不同视频封装多对应不同的解码方式,同时你还要调动硬件解,如果只是CPU解码,效率非常低。解码以后数据如何传递到GPU,这个之前还要做预处理,预处理怎么做,如何做到高效,从摄像头出来的数据到GPU,中间是不是要做很多的内存搬运以及相关的操作,以及前期处理如何用GPU,如何用VIC,如何用decode,这些对于只关注AI计算或者深度学习应用的人来说相当于不同领域,对他们来说非常困难。可能当你把所有环节打通时候,发现你是全能的专家,不再是局限于AI的工程师或者是开发人员。DeepStream就相当于解决了很多依赖于平台或者其他领域相关知识的应用,可能并不跟AI或者inference相关。
Q:人体跟踪可以用DeepStream吗?
A:可以。我们已经实现了三个跟踪相关的算法,IOU,KLC,还有一个NVKCF,而且都已经封装好,做简单的配置就可以直接用,也有已经做好的DEMO,你可以看一下效果。
Q:有支持双眼视觉的案例吗?
A:这个并没有,可以看一下isaac相关应用,那边比较做双目相关应用,因为DeepStream更多的是拿到非常常见的正常的视频数据做处理,如果像双目这个一般做测距或者点云或者其他的,isaac里涉及比较多,你可以了解一下。
介绍一下EasyDL和NVIDIA合作软硬一体方案,现在是已经在百度AI上上架,价格非常合适,全网最低,左侧是EasyDLJetsonNano软硬一体方案,原价1099,现在是800。中间是EasyDLJetsonTX2软硬一体方案,原价3500,现价320,右边是EasyDLJetsonXavier,原价5999,现价是5600。买到就是赚到!
如果你在之前已经买到了NVIDIA硬件,无论是哪款,首先在EasyDL平台训练完模型以后,发布是专项部署SDK,硬件时候宣传下面JetsonNano,TX2,EasyDL专用的,右上角有一个控制台,然后点击蓝色的新增序列号,目前只有三个月的有效期,之后会上线SDK的购买,大家可以根据自己的需求进行SDK购买。
如果你想直接购买EasyDLJetsonJetsonNano/TX2/Xavier,可以在百度市场搜索EasyDL,找到这个软硬一体方案,现在是全网最低的优惠折扣。购买以后将会获得Jetson硬件和用于激活专用SDK的专用序列号,在EasyDL训练专项适配Jetson图像分类或者物体检测模型以后,可以逐步迭代模型,满足业务需求,发布模型时候选择专项硬件适配SDK,Jetson专用SDK,这个时候可以在右侧看到如何激活的按钮,进入以后看到激活文档,参考文档进行部署集成以后可以实现离线AI预测。
具体的激活方式,大家可以扫描屏幕右侧的二维码直接进入。我这里说几个需要注意的地方,安装环节建议是JETPACK4.2.2,首次使用SDK需要联网激活,接口调用流程,有序列号,配置目录,创建和初始化EASYDL,最后一步是图像,具体大家可以看一下昨天的课程回放,讲师在直播中一步一步带大家操作了如何快速部署Jetson Nano。
如果大家对EasyDL-Jetson系列软硬一体方案感兴趣,可以直接扫描对应商品的二维码进入商品页进行详细了解,也可以在百度AI市场搜索“EasyDL”查看多种软硬一体方案。
【下期预告】
下一期将会来到领域信息处理专场公开课,内容覆盖CV与NLP,会有来自百度的高级产品经理、来自武汉大学的外科博士现身直播间,为大家从技术解析到实战应用,深度解析AI产业应用的痛点难点!
想要快速提升自己,转型AI应用专家的小伙伴,一定不要错过哦!
大家可以添加小助手的微信,备注“分类”,进入课程学习群。
收藏
请问如何将 EasyDL 经典版训练出来的 det 模型文件,部署到 deepstream 5.0?
有没有文档可以指导一下,参数配置,比如bbox解析,output blob name等等?
收藏
赞