首页 AI Studio教育版 帖子详情
作业帖 | 百度深度学习集训营
收藏
快速回复
AI Studio教育版 其他师资培训 1068797 953
作业帖 | 百度深度学习集训营
收藏
快速回复
AI Studio教育版 其他师资培训 1068797 953

百度深度学习集训营已经正式开营,每个阶段的作业都将有各自的奖励,欢迎大家学习~

PS:如遇帖子过期、审核不通过的情况,请先复制内容保存在word文档,然后根据提示,完成个人实名验证,刷新后重新粘贴复制的内容,即可提交~

欢迎大家报名参加~

1月9日作业:

作业9-1:在第二章中学习过如何设置学习率衰减,这里建议使用分段衰减的方式,衰减系数为0.1, 根据ResNet目前的训练情况,应该在训练到多少步的时候设置衰减合适?请设置好学习率衰减方式,在眼疾识别数据集iChallenge-PM上重新训练ResNet模型。

作业9-1奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸

回复帖子形式:  作业9-1:XXX

抽奖作业截止时间:2020年1月13日中午12点之前

作业9-2奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸

回复帖子形式:  作业9-2:XXX

抽奖作业截止时间:2020年1月13日中午12点之前

 

1月7日作业:

作业8:如果将LeNet模型中的中间层的激活函数Sigmoid换成ReLU,在眼底筛查数据集上将会得到什么样的结果?Loss是否能收敛,ReLU和Sigmoid之间的区别是引起结果不同的原因吗?请发表你的观点

作业8奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸

回复帖子形式:  作业8:XXX

获奖同学:#820 thunder95、#819 你还说不想我吗、 #818 百度用户#0762194095、#817 呵赫 he、#816 星光1dl

1月2日作业

作业7-1  计算卷积中一共有多少次乘法和加法操作

输入数据形状是[10, 3, 224, 224],卷积核kh = kw = 3,输出通道数为64,步幅stride=1,填充ph = pw =1

完成这样一个卷积,一共需要做多少次乘法和加法操作?

提示:先看输出一个像素点需要做多少次乘法和加法操作,然后再计算总共需要的操作次数

提交方式:请回复乘法和加法操作的次数,例如:乘法1000,加法1000

作业7-1奖励:抽取5人赢得飞桨定制本+数据线,截止时间2020年1月6日中午12点之前

回复帖子形式:  作业7-1:XXX

作业7-2奖励:从正确答案中抽取5人获得飞桨定制本+50元京东卡,截止时间2020年1月6日中午12点之前 

 

12月31日作业

作业6-1:

1.将普通神经网络模型的每层输出打印,观察内容
2.将分类准确率的指标 用PLT库画图表示
3.通过分类准确率,判断以采用不同损失函数训练模型的效果优劣
4.作图比较:随着训练进行,模型在训练集和测试集上的Loss曲线
5.调节正则化权重,观察4的作图曲线的变化,并分析原因
作业6-1奖励:抽取5人赢得飞桨定制本+数据线 ,回复帖子形式:  作业6-1:XXX

作业6-2:

正确运行AI Studio《百度架构师手把手教深度学习》课程里面的作业3 的极简版代码,分析训练过程中可能出现的问题或值得优化的地方,通过以下几点优化:

(1)样本:数据增强的方法

(2)假设:改进网络模型

(2)损失:尝试各种Loss

(2)优化:尝试各种优化器和学习率

目标:尽可能使模型在mnist测试集上的分类准确率最高

提交实现最高分类准确率的代码和模型,我们筛选最优结果前10名进行评奖

作业6-2奖励:飞桨定制本+50元京东卡

 

12月25日作业

12月23日作业

作业4-1:在AI studio上运行作业2,用深度学习完成房价预测模型

作业4-1奖励:飞桨定制本+ 《深度学习导论与应用实践》教材,选取第2、3、23、123、223、323…名同学送出奖品

作业4-2:回复下面问题,将答案回复帖子下方:

通过Python、深度学习框架,不同方法写房价预测,Python编写的模型 和 基于飞桨编写的模型在哪些方面存在异同?例如程序结构,编写难易度,模型的预测效果,训练的耗时等等?

回复帖子形式:  作业4-2:XXX

作业4-2奖励:在12月27日(本周五)中午12点前提交的作业中,我们选出最优前五名,送出百度定制数据线+《深度学习导论与应用实践》教材


12月17日作业

完成下面两个问题,并将答案回复在帖子下面,回帖形式:作业3-1(1)XX(2)XX

作业奖励:在2019年12月20日中午12点之前提交,随机抽取5名同学进行点评,礼品是本+数据线

12月12日作业

获奖者:第12名:飞天雄者                                     

12月10日作业
作业1-1:在AI Studio平台上https://aistudio.baidu.com/aistudio/education/group/info/888 跑通房价预测案例

作业1-1奖励:最先完成作业的前3名,以及第6名、66名、166名、266名、366名、466名、566名、666名的同学均可获得飞桨定制大礼包:飞桨帽子、飞桨数据线 、飞桨定制logo笔

作业1-1的获奖者如图:

作业1-2:完成下面两个问题,并将答案发布在帖子下面
①类比牛顿第二定律的案例,在你的工作和生活中还有哪些问题可以用监督学习的框架来解决?假设和参数是什么?优化目标是什么?
②为什么说AI工程师有发展前景?怎样从经济学(市场供需)的角度做出解读?
作业1-2奖励:回复帖子且点赞top5,获得《深度学习导论与应用实践》教材+飞桨定制本

点赞Top5获奖者:1.飞天雄者  2.God_s_apple  3.177*******62   4.学痞龙   5.故乡237、qq526557820

作业截止时间2020年1月10日,再此之前完成,才有资格参加最终Mac大奖评选

 

报名流程:

1.加入QQ群:726887660,班主任会在QQ群里进行学习资料、答疑、奖品等活动

2.点此链接,加入课程报名并实践:https://aistudio.baidu.com/aistudio/course/introduce/888

温馨提示:课程的录播会在3个工作日内上传到AI studio《百度架构师手把手教深度学习》课程上

 

49
收藏
回复
全部评论(953)
时间顺序
米饼大帝
#382 回复于2019-12

0
回复
故乡237
#383 回复于2019-12

作业:3-1(1)见下图

作业:3-1(2)见下图

0
回复
故乡237
#384 回复于2019-12

作业 3-1 (1) 

作业 3-1 (2) 

0
回复
C
C孤独K患者
#385 回复于2019-12

作业3-1(1)

# tanh激活函数
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.patches as patches

x = np.arange(-10, 10, .1)
# 计算tanh激活函数
s = (np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x))

#画图
# 设置窗口大小
plt.figure(figsize=(4,4))
# 画图
plt.plot(x,s,color='r')
# 添加文字说明
plt.text(-9., 0.9, r'$y=\tanh(x)$', fontsize=13)
#plt.xlim(-10, 10)
#plt.ylim(-1,1)
# 设置坐标轴格式
crtAxis = plt.gca()
crtAxis.xaxis.set_label_text('x', fontsize= 15)
crtAxis.yaxis.set_label_text('y', fontsize=15)

plt.show()

运行结果:

0
回复
C
C孤独K患者
#386 回复于2019-12

作业3-1(2)

import numpy as np

p=np.random.randn(10,10)
sum(sum(p>0))

0
回复
米饼大帝
#387 回复于2019-12

1
回复
ExileSaber
#388 回复于2019-12

作业3-1

(1)使用numpy计算tanh激活函数

import numpy as np
import matplotlib.pyplot as plt

plt.figure(figsize=(8, 8))
x = np.arange(-10, 10, 0.1)
e1 = np.exp(x)
e2 = np.exp(-x)

s = (e1 - e2)/(e1 + e2)
plt.plot(x, s, color='r')
plt.text(-5., 0.9, r'$y=\tanh(x)$', fontsize=13)
currentAxis = plt.gca()
currentAxis.xaxis.set_label_text('x', fontsize=15)
currentAxis.yaxis.set_label_text('y', fontsize=15)
plt.show()

(2)统计随机生成的矩阵中有多少个元素大于0

import numpy as np

p = np.random.randn(10, 10)
q = (p > 0)  # 返回的和p一样大小的矩阵,其中元素为bool型
# 方法一
print("1.大于0的元素个数:", np.sum(q))  # 由于bool型true值默认为1,false值默认为0,可以用求和来计算
# 方法二
print("2.大于0的元素个数:", np.count_nonzero(q))  # count_nonzero计算非零的元素个数
# 方法三
z = p[np.where(p > 0)]  # np.where条件查询,返回的是符合条件的坐标值
print("3.大于0的元素个数:", np.size(z))

1
回复
l
lcl050024
#389 回复于2019-12

作业3-1

0
回复
l
lee_hour
#390 回复于2019-12

作业3-1(1)

import matplotlib.pyplot as plt
import numpy as np


def tanh(z):
    return (np.exp(z) - np.exp(-z)) / (np.exp(z) + np.exp(-z))


if __name__ == '__main__':

    z = np.arange(-10., 11., 1)
    y = tanh(z)
    plt.xlabel("z")
    plt.ylabel("tanh(z)")
    plt.plot(z, y)
    plt.grid()
    plt.show()

(2)

p = np.random.randn(10, 10)
print(np.sum(p > 0))

0
回复
locusinger159
#391 回复于2019-12

作业3-1

(1)使用numpy计算tanh

(2)统计

0
回复
帽檐上的poppy
#392 回复于2019-12

作业2.1

第一题:

第二题:

import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
import json

def load_data():
    # 从文件导入数据
    datafile = './data/data18069/housing.data'
    data = np.fromfile(datafile, sep=' ')

    # 每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
    feature_names = [ 'CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE', \
                      'DIS', 'RAD', 'TAX', 'PTRATIO', 'B', 'LSTAT', 'MEDV' ]
    feature_num = len(feature_names)

    # 将原始数据进行Reshape,变成[N, 14]这样的形状
    data = data.reshape([data.shape[0] // feature_num, feature_num])

    # 将原数据集拆分成训练集和测试集
    # 这里使用80%的数据做训练,20%的数据做测试
    # 测试集和训练集必须是没有交集的
    ratio = 0.8
    offset = int(data.shape[0] * ratio)
    training_data = data[:offset]

    # 计算train数据集的最大值,最小值,平均值
    maximums, minimums, avgs = training_data.max(axis=0), training_data.min(axis=0), \
                                 training_data.sum(axis=0) / training_data.shape[0]
    # 对数据进行归一化处理
    for i in range(feature_num):
        #print(maximums[i], minimums[i], avgs[i])
        data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])

    # 训练集和测试集的划分比例
    training_data = data[:offset]
    test_data = data[offset:]
    return training_data, test_data

class Network(object):
    def __init__(self, num_of_weights):
        # 随机产生w的初始值
        # 为了保持程序每次运行结果的一致性,此处设置固定的随机数种子
        #np.random.seed(0)
        self.w1 = np.random.randn(num_of_weights, num_of_weights)
        self.b1 = np.zeros(num_of_weights)
        self.w2 = np.random.randn(num_of_weights,1)
        self.b2 = 0.
       
    def forward(self, x):
        out1 = np.dot(x, self.w1) + self.b1
        out = np.dot(out1, self.w2) + self.b2
        return out
   
    def loss(self, z, y):
        error = z - y
        num_samples = error.shape[0]
        cost = error * error
        cost = np.sum(cost) / num_samples
        return cost
   
    # def update(self, x, y, eta = 0.01):
    #     N = x.shape[0]
    #     out1 = np.dot(x, self.w1) + self.b1
    #     out = np.dot(out1, self.w2) + self.b2
    #     gradient_w2 = 1. / N * np.dot(out1.T,(out-y))
    #     gradient_b2 = 1. / N * np.sum(out-y)
    #     gradient_w1 = 1. / N * np.dot(x.T.dot(out-y),gradient_w2.T)
    #     gradient_b1 = 1. / N * np.sum(np.dot((out-y),gradient_w2.T),0)
    #     self.w1 = self.w1 - eta * gradient_w1
    #     self.b1 = self.b1 - eta * gradient_b1
    #     self.w2 = self.w2 - eta * gradient_w2
    #     self.b2 = self.b2 - eta * gradient_b2
   
    def gradient_2(self, x, y):
        N = x.shape[0]
        out1 = np.dot(x, self.w1) + self.b1
        out = np.dot(out1, self.w2) + self.b2
        gradient_w2 = 1. / N * np.dot(out1.T,(out-y))
        gradient_b2 = 1. / N * np.sum(out-y)
        return gradient_w2,gradient_b2
       
    def gradient_1(self, x, y):
        N = x.shape[0]
        out1 = np.dot(x, self.w1) + self.b1
        out = np.dot(out1, self.w2) + self.b2
        gradient_w1 = 1. / N * np.dot(x.T.dot(out-y),self.w2.T)
        gradient_b1 = 1. / N * np.sum(np.dot((out-y),self.w2.T),0)
        return gradient_w1,gradient_b1
       
    def update(self, gradient_w2, gradient_b2, gradient_w1, gradient_b1, eta = 0.01):
        self.w2 = self.w2 - eta * gradient_w2
        self.b2 = self.b2 - eta * gradient_b2
        self.w1 = self.w1 - eta * gradient_w1
        self.b1 = self.b1 - eta * gradient_b1
               
    def train(self, training_data, num_epoches, batch_size=10, eta=0.01):
        n = len(training_data)
        losses = []
        for epoch_id in range(num_epoches):
            # 在每轮迭代开始之前,将训练数据的顺序随机的打乱,
            # 然后再按每次取batch_size条数据的方式取出
            np.random.shuffle(training_data)
            # 将训练数据进行拆分,每个mini_batch包含batch_size条的数据
            mini_batches = [training_data[k:k+batch_size] for k in range(0, n, batch_size)]
            for iter_id, mini_batch in enumerate(mini_batches):
                #print(self.w.shape)
                #print(self.b)
                x = mini_batch[:, :-1]
                y = mini_batch[:, -1:]
                out = self.forward(x)
                loss = self.loss(out, y)
                gradient_w2,gradient_b2 = self.gradient_2(x,y)
                gradient_w1,gradient_b1 = self.gradient_1(x,y)
                self.update(gradient_w2, gradient_b2, gradient_w1, gradient_b1, eta = 0.01)
                losses.append(loss)
                print('Epoch {:3d} / iter {:3d}, loss = {:.4f}'.
                                 format(epoch_id, iter_id, loss))
       
        return losses

# 获取数据
train_data, test_data = load_data()

# 创建网络
net = Network(13)
# 启动训练
losses = net.train(train_data, num_epoches=50, batch_size=32, eta=0.1)

# 画出损失函数的变化趋势
plot_x = np.arange(len(losses))
plot_y = np.array(losses)
plt.plot(plot_x, plot_y)
plt.show()

0
回复
才能我浪费99
#393 回复于2019-12

作业3-1

(1)

import numpy as np
import matplotlib.pyplot as plt
def tanh(x):
    return (np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x))
x = np.arange(-10.0, 10.0, 0.01)
y = tanh(x)
plt.plot(x,y)
plt.show()

(2)

import numpy as np
p = np.random.randn(10, 10)
print (p)
q = (p>0)
print (q)
result=q.sum()
print(result)
0
回复
晓旭15133
#394 回复于2019-12

0
回复
w
worddict
#395 回复于2019-12

作业3-1

(1)

import numpy as np
import matplotlib.pyplot as plt
x = np.arange(-10.0, 10.0, 0.01)
tanh = (np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x))
plt.plot(x,tanh)
plt.show()

(2)

import numpy as np
p = np.random.randn(10, 10)
q = (p>0)
num=q.sum()
print(num)

0
回复
晓旭15133
#396 回复于2019-12
import numpy as np
import matplotlib.pyplot as plt

x=np.arange(-10,10,0.1)
#tanh激活函数
y=(np.exp(x)-np.exp(- x))/(np.exp(x)+np.exp(- x))
f=plt.subplot(121)
plt.plot(x,y,color='b')
plt.text(-8,.5,r'$y=\tanh(x)$',fontsize=13)
currentAxis=plt.gca()
currentAxis.xaxis.set_label_text('x',fontsize=15)
currentAxis.yaxis.set_label_text('y',fontsize=15)
plt.show()

#第二题 求大于0的元素个数
p = np.random.randn(10, 10)
num = np.sum(p>0)
print("大于0的元素个数:",num)
0
回复
y
youngbloodlz
#397 回复于2019-12

作业3-1:

(1)

import numpy as np
import matplotlib.pyplot as plt

x = np.arange(-10, 10, 0.01)
y = (np.exp(x)-np.exp(- x))/(np.exp(x)+np.exp(- x))

plt.plot(x, y)
plt.show()

(2)

import numpy as np

p = np.random.randn(10, 10)
q = (p > 0)
cnt = np.sum(q)
print("大于0的个数为;", cnt)

 

0
回复
Howling_
#398 回复于2019-12

作业3-1

(1)使用numpy计算tanh激活函数

import numpy as np
import matplotlib.pyplot as plt

def tanh(x):
    pos = np.exp(x)
    neg = 1 / pos # np.exp(-x)
    numerator = pos - neg
    denominator = pos + neg
    y = numerator / denominator
    return y

# x = np.linspace(-10,10,200)
x = np.arange(-10, 10, 0.1)
y = tanh(x)
plt.plot(x, y)
# 添加文字说明
plt.text(-3.0, 1, r'$y=tanh(x)$', fontsize=13)
# 设置坐标轴格式
currentAxis=plt.gca()
currentAxis.xaxis.set_label_text('x', fontsize=15)
currentAxis.yaxis.set_label_text('y', fontsize=15)

(2)统计随机生成矩阵中有多少个元素大于0

import numpy as np

p = np.random.randn(10, 10)
np.sum(p > 0)
0
回复
瑾瑜将将
#399 回复于2019-12

作业3-1

(1)

import numpy as np
import matplotlib.pyplot as plt

x = np.arange(-10,10,0.1)
y = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
plt.plot(x,y)
plt.text(5,0.8,r'$y=tanh(x)$',fontsize=15)
currentAxis=plt.gca()
currentAxis.xaxis.set_label_text('x',fontsize = 15)
currentAxis.yaxis.set_label_text('y',fontsize = 15)

plt.show()

(2)

import numpy as np
p = np.random.randn(10,10)
q=(p>0)
print(q)
print(q.dtype)
count = q.sum()
print(count)

0
回复
瑾瑜将将
#400 回复于2019-12

12月12日作业

(1)

0
回复
瑾瑜将将
#401 回复于2019-12

12月12日作业

(1)

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户