其实我觉得NLP稍微难一些
抽象,歧义多,一词多义,表达方式多这些都是他的特点,但是我觉得最难得还是主观性太强
我们在日常生活表达的时候都只会说个大概,听者会自动补全描述语。并且,在不同的环境下,同样的句子你可能补全的也不一样。
这只是个人观点。我也想听听大家的观点,欢迎大家留言
训练不到位的模型预测的时候给全图还是会在天上画车道线的。。。
对 占用很大内存还
哈哈 刺激不 开车到天上
嘴里再含一根内存条,
其实是显存……
原来还有这玩儿法,这是传说中的脑机接口么~~
看过一个视频介绍,最早的神经网络论文还真是“拿人”训练的-训练志愿者分析声谱,不是“研究生下降梯度法”,是“下降研究生的梯度法”,哈哈。
那个年代算力不是奢侈品,是穷凶极奢~~
这个算降噪还是降维~
感觉学的人越多越难
哎
脑机接口离我们不远了
那就再含一根显卡坞的接口
不至于
只是现在算法岗比前几年明确多了
招人的要求更苛刻
应该不止包括降噪和降维,包括数据分布之类的
谁能想到GPU后来发展这么快
听他们说算法的要求现在挺高的
大实话
人多岗位少,只能是提高要求筛选了
那倒是
训练不到位的模型预测的时候给全图还是会在天上画车道线的。。。
对 占用很大内存还
哈哈 刺激不 开车到天上
嘴里再含一根内存条,
其实是显存……
原来还有这玩儿法,这是传说中的脑机接口么~~
看过一个视频介绍,最早的神经网络论文还真是“拿人”训练的-训练志愿者分析声谱,不是“研究生下降梯度法”,是“下降研究生的梯度法”,哈哈。
那个年代算力不是奢侈品,是穷凶极奢~~
这个算降噪还是降维~
感觉学的人越多越难
哎
脑机接口离我们不远了
那就再含一根显卡坞的接口
不至于
只是现在算法岗比前几年明确多了
招人的要求更苛刻
应该不止包括降噪和降维,包括数据分布之类的
谁能想到GPU后来发展这么快
听他们说算法的要求现在挺高的
大实话
人多岗位少,只能是提高要求筛选了
那倒是