百度深度学习集训营已经正式开营,每个阶段的作业都将有各自的奖励,欢迎大家学习~
PS:如遇帖子过期、审核不通过的情况,请先复制内容保存在word文档,然后根据提示,完成个人实名验证,刷新后重新粘贴复制的内容,即可提交~
欢迎大家报名参加~
1月9日作业:
作业9-1:在第二章中学习过如何设置学习率衰减,这里建议使用分段衰减的方式,衰减系数为0.1, 根据ResNet目前的训练情况,应该在训练到多少步的时候设置衰减合适?请设置好学习率衰减方式,在眼疾识别数据集iChallenge-PM上重新训练ResNet模型。
作业9-1奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸
回复帖子形式: 作业9-1:XXX
抽奖作业截止时间:2020年1月13日中午12点之前
作业9-2奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸
回复帖子形式: 作业9-2:XXX
抽奖作业截止时间:2020年1月13日中午12点之前
1月7日作业:
作业8:如果将LeNet模型中的中间层的激活函数Sigmoid换成ReLU,在眼底筛查数据集上将会得到什么样的结果?Loss是否能收敛,ReLU和Sigmoid之间的区别是引起结果不同的原因吗?请发表你的观点
作业8奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸
回复帖子形式: 作业8:XXX
获奖同学:#820 thunder95、#819 你还说不想我吗、 #818 百度用户#0762194095、#817 呵赫 he、#816 星光1dl
1月2日作业
作业7-1 计算卷积中一共有多少次乘法和加法操作
输入数据形状是[10, 3, 224, 224],卷积核kh = kw = 3,输出通道数为64,步幅stride=1,填充ph = pw =1
完成这样一个卷积,一共需要做多少次乘法和加法操作?
提示:先看输出一个像素点需要做多少次乘法和加法操作,然后再计算总共需要的操作次数
提交方式:请回复乘法和加法操作的次数,例如:乘法1000,加法1000
作业7-1奖励:抽取5人赢得飞桨定制本+数据线,截止时间2020年1月6日中午12点之前
回复帖子形式: 作业7-1:XXX
作业7-2奖励:从正确答案中抽取5人获得飞桨定制本+50元京东卡,截止时间2020年1月6日中午12点之前
12月31日作业
作业6-1:
1.将普通神经网络模型的每层输出打印,观察内容
2.将分类准确率的指标 用PLT库画图表示
3.通过分类准确率,判断以采用不同损失函数训练模型的效果优劣
4.作图比较:随着训练进行,模型在训练集和测试集上的Loss曲线
5.调节正则化权重,观察4的作图曲线的变化,并分析原因
作业6-1奖励:抽取5人赢得飞桨定制本+数据线 ,回复帖子形式: 作业6-1:XXX
作业6-2:
正确运行AI Studio《百度架构师手把手教深度学习》课程里面的作业3 的极简版代码,分析训练过程中可能出现的问题或值得优化的地方,通过以下几点优化:
(1)样本:数据增强的方法
(2)假设:改进网络模型
(2)损失:尝试各种Loss
(2)优化:尝试各种优化器和学习率
目标:尽可能使模型在mnist测试集上的分类准确率最高
提交实现最高分类准确率的代码和模型,我们筛选最优结果前10名进行评奖
作业6-2奖励:飞桨定制本+50元京东卡
12月25日作业
12月23日作业
作业4-1:在AI studio上运行作业2,用深度学习完成房价预测模型
作业4-1奖励:飞桨定制本+ 《深度学习导论与应用实践》教材,选取第2、3、23、123、223、323…名同学送出奖品
作业4-2:回复下面问题,将答案回复帖子下方:
通过Python、深度学习框架,不同方法写房价预测,Python编写的模型 和 基于飞桨编写的模型在哪些方面存在异同?例如程序结构,编写难易度,模型的预测效果,训练的耗时等等?
回复帖子形式: 作业4-2:XXX
作业4-2奖励:在12月27日(本周五)中午12点前提交的作业中,我们选出最优前五名,送出百度定制数据线+《深度学习导论与应用实践》教材
12月17日作业
完成下面两个问题,并将答案回复在帖子下面,回帖形式:作业3-1(1)XX(2)XX
作业奖励:在2019年12月20日中午12点之前提交,随机抽取5名同学进行点评,礼品是本+数据线
12月12日作业
获奖者:第12名:飞天雄者
12月10日作业
作业1-1:在AI Studio平台上https://aistudio.baidu.com/aistudio/education/group/info/888 跑通房价预测案例
作业1-1奖励:最先完成作业的前3名,以及第6名、66名、166名、266名、366名、466名、566名、666名的同学均可获得飞桨定制大礼包:飞桨帽子、飞桨数据线 、飞桨定制logo笔
作业1-1的获奖者如图:
作业1-2:完成下面两个问题,并将答案发布在帖子下面
①类比牛顿第二定律的案例,在你的工作和生活中还有哪些问题可以用监督学习的框架来解决?假设和参数是什么?优化目标是什么?
②为什么说AI工程师有发展前景?怎样从经济学(市场供需)的角度做出解读?
作业1-2奖励:回复帖子且点赞top5,获得《深度学习导论与应用实践》教材+飞桨定制本
点赞Top5获奖者:1.飞天雄者 2.God_s_apple 3.177*******62 4.学痞龙 5.故乡237、qq526557820
作业截止时间2020年1月10日,再此之前完成,才有资格参加最终Mac大奖评选
报名流程:
1.加入QQ群:726887660,班主任会在QQ群里进行学习资料、答疑、奖品等活动
2.点此链接,加入课程报名并实践:https://aistudio.baidu.com/aistudio/course/introduce/888
温馨提示:课程的录播会在3个工作日内上传到AI studio《百度架构师手把手教深度学习》课程上
12月17日作业
作业3-1:
(1)
(2)
作业3-1(1)使用numpy计算tanh激活函数
(2)统计随机生成矩阵中有多少个元素大于0
作业3-1使用numpy计算tanh激活函数
import numpy as np
import matplotlib.pyplot as plt
x=np.arange(-10,10,0.1)
y=(np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
plt.plot(x,y)
作业3-2 统计随机生成元素中有多少个元素大于0
p=np.random.randn(10,10)
q=(p>0)
print(np.sum(q))
import numpy as np
import matplotlib.pyplot as plot
def cul_tanh(x):
if x is not None:
return (np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x))
print("input error")
def count0(p):
if p is not None:
q = (p > 0)
return np.sum(q)
# 作业3-1使用numpy计算tanh激活函数
x = np.arange(-10,10,0.1)
y = cul_tanh(x)
plot.plot(x,y)
plot.show()
# 作业3-2 统计随机生成元素中有多少个元素大于0
p = np.random.randn(10, 10)
num = count0(p)
print(num)
12月10日课间作业
①类比牛顿第二定律的案例,在你的工作和生活中还有哪些问题可以用监督学习的框架来解决?假设和参数是什么?优化目标是什么?
预测游戏的某一个时段的在线人数,假设框架模型是线性的,模型参数和要预测的时间段,游戏注册用户的各个年龄段占比,游戏所有注册用户数量等(如果存在其他特征)参数有关联,优化目标是预测数来的人数和实际人数相等(或尽可能的相等)
②为什么说AI工程师有发展前景?怎样从经济学(市场供需)的角度做出解读?
以深度学习为基础的AI技术在各行各业广泛应用产生巨大的经济价值,现已在零售、建筑、检测、工业、医疗、电力、安防、物流和交通等方方面面得到了应用;且推动人工智能进入工业大生产阶段,算法的通用性导致标准化、自动化、模块化的框架产生
作业3-1:
作业 3-2:
import numpy as np
p = np.random.randn(10,10)
print(np.sum(p>0))
作业3-1:
(1)
(2)
作业3-1
(1)
(2)
作业2-1 :(1)
作业2-1
(1)基础题:填写购买苹果和橘子的梯度传播
作业2-1
(1)基础题:填写购买苹果和橘子的梯度传播
刚才发现做错了,重新做一遍
作业1-2:完成下面两个问题,并将答案发布在帖子下面
①类比牛顿第二定律的案例,在你的工作和生活中还有哪些问题可以用监督学习的框架来解决?假设和参数是什么?优化目标是什么?
判断花朵种类可以用监督学习的框架来解决,假设是线性关系,参数是花瓣长度,优化目标是得到最优的参数。
②为什么说AI工程师有发展前景?怎样从经济学(市场供需)的角度做出解读?
人工智能是一个很广阔的领域,在社会中的应用非常广泛,企业对人工智能人才的需求剧增。我国现阶段人工智能人才严重稀缺,还处于发展阶段,导致社会人才需求大于人才的培养。使得企业急需掌握人工智能技术的算法工程师。在未来10年人工智能工程师的需求会不断增加,面对市场需求巨大,人工智能算法工程师的发展前景将会是一片光明。
12月12日
作业1:
作业2:挑战题
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
def load_data():
datafile = './data/data16317/housing.data'
data = np.fromfile(datafile, sep=' ')
feature_names = [ 'CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE', \
'DIS', 'RAD', 'TAX', 'PTRATIO', 'B', 'LSTAT', 'MEDV' ]
feature_num = len(feature_names)
data = data.reshape([data.shape[0] // feature_num, feature_num])
# 将原数据集拆分成训练集和测试集
# 这里使用80%的数据做训练,20%的数据做测试
# 测试集和训练集必须是没有交集的
ratio = 0.8
offset = int(data.shape[0] * ratio)
training_data = data[:offset]
# 计算train数据集的最大值,最小值,平均值
maximums, minimums, avgs = training_data.max(axis=0), training_data.min(axis=0), \
training_data.sum(axis=0) / training_data.shape[0]
# 对数据进行归一化处理
for i in range(feature_num):
#print(maximums[i], minimums[i], avgs[i])
data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])
# 训练集和测试集的划分比例
training_data = data[:offset]
test_data = data[offset:]
return training_data, test_data
class Network(object):
def __init__(self, num_of_weights):
# 随机产生w的初始值
# 为了保持程序每次运行结果的一致性,此处设置固定的随机数种子
#np.random.seed(0)
#w1和w2两个维度加1的目的是把b当做w的一个维度,为数据矩阵x添加一列常数1。
self.w1 = np.random.randn(num_of_weights+1, num_of_weights)
self.w2 = np.random.randn(num_of_weights+1,1)
def forward(self, x):
a1 = np.hstack((x,np.ones((x.shape[0],1))))
z1 = np.dot(a1,self.w1)
a2 = np.hstack((z1,np.ones((z1.shape[0],1))))
z2 = np.dot(a2,self.w2)
return z1,z2
def loss(self, z, y):
return np.mean((z-y)**2)
def gradient_2(self,out_list, x, y):
#在中间层的输入中添加1列常数1,作为偏置项bias
z = np.hstack((out_list[0],np.ones((x.shape[0],1))))
n_samples = y.shape[0]
gradient_w2 =(np.dot(z.T,out_list[1]-y))/n_samples
return gradient_w2
def gradient_1(self, out_list, x, y):
#损失函数对第一层的权重矩阵的梯度,可以用矩阵微分公式求得
x_bias = np.hstack((x,np.ones((x.shape[0],1))))
n_samples = x.shape[0]
gradient_w1 = np.dot(np.dot(x_bias.T,out_list[-1]-y),self.w2.T[:,:-1])/n_samples
return gradient_w1
def update(self, gradient_w1, gradient_w2, eta = 0.01):
self.w2 = self.w2 - eta * gradient_w2
self.w1 = self.w1 - eta * gradient_w1
def train(self, training_data, num_epoches, batch_size=10, eta=0.01):
n = len(training_data)
losses = []
for epoch_id in range(num_epoches):
np.random.shuffle(training_data)
mini_batches = [training_data[k:k+batch_size] for k in range(0, n, batch_size)]
for iter_id, mini_batch in enumerate(mini_batches):
x = mini_batch[:, :-1]
y = mini_batch[:, -1:].reshape(-1,1)
out_list = net.forward(x)
loss = self.loss(out_list[-1], y)
gradient_w2 = self.gradient_2(out_list,x,y)
gradient_w1 = self.gradient_1(out_list,x,y)
self.update(gradient_w1, gradient_w2, eta = 0.01)
losses.append(loss)
print('Epoch {:3d} / iter {:3d}, loss = {:.4f}'.
format(epoch_id, iter_id, loss))
return losses
train_data, test_data = load_data()
net = Network(13)
losses = net.train(train_data, num_epoches=200, batch_size=100, eta=0.1)
plot_x = np.arange(len(losses))
plot_y = np.array(losses)
plt.plot(plot_x, plot_y)
plt.show()
作业3-1:
(1)使用numpy计算tanh激活函数
(2)统计随机生成矩阵中有多少个元素大于0
作业3-1
作业3-1:
import numpy as np
%matplotlib inline
import matplotlib.pyplot as plt
x=np.arange(-10,10,0.1)
y=(np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
plt.plot(x,y)
作业3-2:
import numpy as np
p=np.random.randn(10,10)
q=(p>0)
s=q.sum()
print(s)
作业3-1:
(1)
(2)
作业3-1
(1)
```
# tanh激活函数示意图
import numpy as np
%matplotlib inline
import matplotlib.pyplot as plt
import matplotlib.patches as patches
#设置图片大小
plt.figure(figsize=(8, 6))
# x是1维数组,数组大小是从-10. 到10.的实数,每隔0.1取一个点
x = np.arange(-10, 10, 0.1)
# 计算 Sigmoid函数
s = (np.exp( x) - np.exp(- x)) / (np.exp( x) + np.exp(- x))
# 设置两个子图窗口,将tanh的函数图像画在左边
f = plt.subplot(111)
# 画出函数曲线
plt.plot(x, s, color='r')
# 添加文字说明
plt.text(-5., 0.9, r'$y=\tanh(x)$', fontsize=13)
# 设置坐标轴格式
currentAxis=plt.gca()
currentAxis.xaxis.set_label_text('x', fontsize=15)
currentAxis.yaxis.set_label_text('y', fontsize=15)
```
(2)
```
import numpy as np
# 生成标准正态分布随机数
p = np.random.randn(10, 10)
q = p>0
s = p[q]
s.size,q
```
(39, array([[ True, False, False, True, False, True, False, False, False,
False],
[ True, False, False, False, False, True, False, False, False,
False],
[ True, False, False, True, False, True, True, False, False,
False],
[False, False, True, False, False, False, True, False, True,
False],
[False, True, True, False, True, True, True, False, True,
True],
[False, True, False, False, False, True, False, True, False,
False],
[False, False, False, False, False, False, False, True, False,
True],
[ True, False, False, True, False, True, True, True, False,
False],
[ True, True, True, True, False, True, False, True, False,
False],
[False, False, True, False, True, False, False, False, True,
True]]))
作业3-1
import numpy as np
import matplotlib.pyplot as plt
x=np.arange(-10,10,0.01)
y=(np.exp(x)-np.exp(-x))/(np.exp(x)+ np.exp(-x))
plt.plot(x,y)
plt.show()
3-2