飞桨深度学习500问内容征集活动即将上线~
走过路过
留下您对于深度学习感兴趣的方向
或是写出您对AI Studio使用过程中的任何问题
或是列出您认为AI Studio应该增加的项目内容
我们将从评论中挑选幸运儿获得100小时算力卡一张~
每十楼抽选一次哦~
请幸运儿们加入百度AI Studio 官方QQ群:816164541
在群中@滴滴-AI Studio就好啦
能说的稍微具体些吗?比如说什么管理工具
收到哈哈,那您现在对平台上的一些相关内容还满意吗?
又满10楼啦~第二波抽奖开始~恭喜@樱花君子获得100小时算力卡一张!记得先加群哈,然后私聊滴滴
空间的话感觉10G-20G该做md笔记就足够用了,环境管理就是向conda一样可以自定义环境吧,或者可以通过自动将环境的模块保存到固定空间的文件中也可以的。
感觉平台资源挺丰富的,比较满意,不过现在处于新接触,还在学习,还没有到自己实现项目的程度。每个账户如果有独立空间的话,即便不能保存现有环境,是否也可以通过自动将环境依赖保存在文件中,然后每次进入项目初始化时进行自动安装的方式来方便开发。
我自己训练词向量,用脚本任务说找不到paddlehub,我怎么把paddlehub加上?
期待PaddlePaddle框架对目标追踪和场景重绘有所贡献!!!支持一下!!!
平台无法使用ffmpeg,官方大大麻烦给预一个吧
ffmpeg和ffmpeg-python,每次使用都要自己重新装一遍,麻烦官方大大给预装一下
感兴趣方向:基于深度学习的语音识别、推荐系统原理
百度网盘的数据能不能添加进我的数据集,几十G的数据搬不动啊。。。
全连接神经网络我知道怎么做,可是多入口多出口的分叉全连接神经网络就不知道咋办了,有没有教程呢?
平台正在运行的项目不能和数据集同步更新。每次都要停止运行的项目,重新运行一下才有最新的数据集文件。能不能优化一下。经不起这样来来回回的折腾啊!
现在yolo nano目标检测算法出来了,据说比Tiny YOLOv3小 8.3倍,map提高10.7点,只有4M大小非常适合嵌入式开发环境,现在paddle-lite暂时只支持armv7系列以后的硬件;后续有没有可能支持armv5,v6系列的嵌入式开发板
您对数据集的更新操作具体是什么呢?
欢迎加入飞桨PaddlePaddle 交流群:432676488,paddle相关问题群里将会有工程师为您在线解答
我们有在考虑的~暂时来看没有特别好的解决方式,抱歉啦
您好啊,请问您具体是什么场景,需要用到v5和v6的芯片呢?您用的是哪款芯片。paddle lite目前主要支持的v7和v8,考虑的是目前市场上的芯片主流的都是这一类的。如果能够判断您这边的需求在市场上有较高需求,我们也会考虑加入roadmap之中。(欢迎加入我们的lite群交流(QQ群:696965088)
自己训练模型报错,如下:
EPOCH_NUM=10model_save_dir = '/home/aistudio/work/infer_model/'# 开始训练
for pass_id in range(EPOCH_NUM): # 进行训练 for batch_id, data in enumerate(train_reader()): train_cost, train_acc = exe.run(program=fluid.default_main_program(), feed=feeder.feed(data), use_program_cache=True,#陈阳加,批量运行 fetch_list=[avg_cost, acc])
if batch_id % 100 == 0: print('Pass:%d, Batch:%d, Cost:%0.5f, Acc:%0.5f' % (pass_id, batch_id, train_cost[0], train_acc[0])) # 进行测试 test_costs = [] test_accs = [] for batch_id, data in enumerate(test_reader()): test_cost, test_acc = exe.run(program=test_program, feed=feeder.feed(data), fetch_list=[avg_cost, acc]) test_costs.append(test_cost[0]) test_accs.append(test_acc[0]) # 计算平均预测损失在和准确率 test_cost = (sum(test_costs) / len(test_costs)) test_acc = (sum(test_accs) / len(test_accs)) print('Test:%d, Cost:%0.5f, ACC:%0.5f' % (pass_id, test_cost, test_acc))
# 保存预测模型if not os.path.exists(model_save_dir): os.makedirs(model_save_dir) fluid.io.save_inference_model(model_save_dir, feeded_var_names=[words.name], target_vars=[model], executor=exe)print('训练模型保存完成!') ---------------------------------------------------------------------------EnforceNotMet Traceback (most recent call last) in 9 feed=feeder.feed(data), 10 use_program_cache=True,#陈阳加,批量运行---> 11 fetch_list=[avg_cost, acc]) 12 13 if batch_id % 100 == 0:/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py in run(self, program, feed, fetch_list, feed_var_name, fetch_var_name, scope, return_numpy, use_program_cache) 649 scope=scope, 650 return_numpy=return_numpy,--> 651 use_program_cache=use_program_cache) 652 else: 653 if fetch_list and program._is_data_parallel and program._program and (/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py in _run(self, program, exe, feed, fetch_list, feed_var_name, fetch_var_name, scope, return_numpy, use_program_cache) 749 exe.run(program.desc, scope, 0, True, True, fetch_var_name) 750 else:--> 751 exe.run_cached_prepared_ctx(ctx, scope, False, False, False) 752 outs = self._fetch_data(fetch_list, fetch_var_name, scope) 753 if return_numpy:EnforceNotMet: Invoke operator fetch error.Python Callstacks: File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/framework.py", line 1771, in append_op attrs=kwargs.get("attrs", None)) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py", line 438, in _add_feed_fetch_ops attrs={'col': i}) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py", line 719, in _run fetch_var_name=fetch_var_name) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py", line 651, in run use_program_cache=use_program_cache) File "", line 11, in fetch_list=[avg_cost, acc]) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 3265, in run_code exec(code_obj, self.user_global_ns, self.user_ns) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 3183, in run_ast_nodes if (yield from self.run_code(code, result)): File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 3018, in run_cell_async interactivity=interactivity, compiler=compiler, result=result) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/async_helpers.py", line 67, in _pseudo_sync_runner coro.send(None) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 2843, in _run_cell return runner(coro) File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 2817, in run_cell
自己查看Executor._run()代码,对751行的这个函数不理解
exe.run_cached_prepared_ctx(ctx, scope, False, False, False)
这个函数在哪儿写的?
能说的稍微具体些吗?比如说什么管理工具
收到哈哈,那您现在对平台上的一些相关内容还满意吗?
又满10楼啦~第二波抽奖开始~恭喜@樱花君子获得100小时算力卡一张!记得先加群哈,然后私聊滴滴
空间的话感觉10G-20G该做md笔记就足够用了,环境管理就是向conda一样可以自定义环境吧,或者可以通过自动将环境的模块保存到固定空间的文件中也可以的。
感觉平台资源挺丰富的,比较满意,不过现在处于新接触,还在学习,还没有到自己实现项目的程度。每个账户如果有独立空间的话,即便不能保存现有环境,是否也可以通过自动将环境依赖保存在文件中,然后每次进入项目初始化时进行自动安装的方式来方便开发。
我自己训练词向量,用脚本任务说找不到paddlehub,我怎么把paddlehub加上?
期待PaddlePaddle框架对目标追踪和场景重绘有所贡献!!!支持一下!!!
平台无法使用ffmpeg,官方大大麻烦给预一个吧
ffmpeg和ffmpeg-python,每次使用都要自己重新装一遍,麻烦官方大大给预装一下
感兴趣方向:基于深度学习的语音识别、推荐系统原理
百度网盘的数据能不能添加进我的数据集,几十G的数据搬不动啊。。。
全连接神经网络我知道怎么做,可是多入口多出口的分叉全连接神经网络就不知道咋办了,有没有教程呢?
平台正在运行的项目不能和数据集同步更新。每次都要停止运行的项目,重新运行一下才有最新的数据集文件。能不能优化一下。经不起这样来来回回的折腾啊!
现在yolo nano目标检测算法出来了,据说比Tiny YOLOv3小 8.3倍,map提高10.7点,只有4M大小非常适合嵌入式开发环境,现在paddle-lite暂时只支持armv7系列以后的硬件;后续有没有可能支持armv5,v6系列的嵌入式开发板
您对数据集的更新操作具体是什么呢?
欢迎加入飞桨PaddlePaddle 交流群:432676488,paddle相关问题群里将会有工程师为您在线解答
我们有在考虑的~暂时来看没有特别好的解决方式,抱歉啦
您好啊,请问您具体是什么场景,需要用到v5和v6的芯片呢?您用的是哪款芯片。paddle lite目前主要支持的v7和v8,考虑的是目前市场上的芯片主流的都是这一类的。如果能够判断您这边的需求在市场上有较高需求,我们也会考虑加入roadmap之中。(欢迎加入我们的lite群交流(QQ群:696965088)
自己训练模型报错,如下:
EPOCH_NUM=10
model_save_dir = '/home/aistudio/work/infer_model/'
# 开始训练
for pass_id in range(EPOCH_NUM):
# 进行训练
for batch_id, data in enumerate(train_reader()):
train_cost, train_acc = exe.run(program=fluid.default_main_program(),
feed=feeder.feed(data),
use_program_cache=True,#陈阳加,批量运行
fetch_list=[avg_cost, acc])
if batch_id % 100 == 0:
print('Pass:%d, Batch:%d, Cost:%0.5f, Acc:%0.5f' % (pass_id, batch_id, train_cost[0], train_acc[0]))
# 进行测试
test_costs = []
test_accs = []
for batch_id, data in enumerate(test_reader()):
test_cost, test_acc = exe.run(program=test_program,
feed=feeder.feed(data),
fetch_list=[avg_cost, acc])
test_costs.append(test_cost[0])
test_accs.append(test_acc[0])
# 计算平均预测损失在和准确率
test_cost = (sum(test_costs) / len(test_costs))
test_acc = (sum(test_accs) / len(test_accs))
print('Test:%d, Cost:%0.5f, ACC:%0.5f' % (pass_id, test_cost, test_acc))
# 保存预测模型
if not os.path.exists(model_save_dir):
os.makedirs(model_save_dir)
fluid.io.save_inference_model(model_save_dir,
feeded_var_names=[words.name],
target_vars=[model],
executor=exe)
print('训练模型保存完成!')
---------------------------------------------------------------------------EnforceNotMet Traceback (most recent call last) in
9 feed=feeder.feed(data),
10 use_program_cache=True,#陈阳加,批量运行
---> 11 fetch_list=[avg_cost, acc])
12
13 if batch_id % 100 == 0:
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py in run(self, program, feed, fetch_list, feed_var_name, fetch_var_name, scope, return_numpy, use_program_cache)
649 scope=scope,
650 return_numpy=return_numpy,
--> 651 use_program_cache=use_program_cache)
652 else:
653 if fetch_list and program._is_data_parallel and program._program and (
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py in _run(self, program, exe, feed, fetch_list, feed_var_name, fetch_var_name, scope, return_numpy, use_program_cache)
749 exe.run(program.desc, scope, 0, True, True, fetch_var_name)
750 else:
--> 751 exe.run_cached_prepared_ctx(ctx, scope, False, False, False)
752 outs = self._fetch_data(fetch_list, fetch_var_name, scope)
753 if return_numpy:
EnforceNotMet: Invoke operator fetch error.
Python Callstacks:
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/framework.py", line 1771, in append_op
attrs=kwargs.get("attrs", None))
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py", line 438, in _add_feed_fetch_ops
attrs={'col': i})
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py", line 719, in _run
fetch_var_name=fetch_var_name)
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/executor.py", line 651, in run
use_program_cache=use_program_cache)
File "", line 11, in
fetch_list=[avg_cost, acc])
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 3265, in run_code
exec(code_obj, self.user_global_ns, self.user_ns)
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 3183, in run_ast_nodes
if (yield from self.run_code(code, result)):
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 3018, in run_cell_async
interactivity=interactivity, compiler=compiler, result=result)
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/async_helpers.py", line 67, in _pseudo_sync_runner
coro.send(None)
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 2843, in _run_cell
return runner(coro)
File "/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 2817, in run_cell
自己查看Executor._run()代码,对751行的这个函数不理解
exe.run_cached_prepared_ctx(ctx, scope, False, False, False)
这个函数在哪儿写的?