标签:: homework
cs231n作业:assignment2 - Batch Normalization and Dropout
Batch Normalization批量归一化相当于在每一层神经网络的激活函数前进行归一化预处理。
DeepLearning.ai作业:(5-3) -- 序列模型和注意力机制
这周作业分为了两部分: 机器翻译 触发关键字 Part1:机器翻译你将建立一个将人类可读日期(“2009年6月25日”)转换为机器可读日期(“2009-06-25”)的神经机器翻译(NMT)模型。 你将使用注意力机制来执行此操作,这是模型序列中最尖端的一个序列。 你将创建的模型可用于从一种语言翻译为另一种语言,如从英语翻译为印地安语。 但是,语言翻译需要大量的数据集,并且通常需要几天的GPU
DeepLearning.ai作业:(5-1)-- 循环神经网络(Recurrent Neural Networks)(1)
本周作业分为三部分: 手动建一个RNN模型 搭建一个字符级的语言模型来生成恐龙的名字 用LSTM生成爵士乐
DeepLearning.ai作业:(4-3)-- 目标检测(Object detection)
本周的作业实现了YOLO算法,并用于自动驾驶的目标检测中。 Model details输入: (m, 608, 608, 3) 输出: (m, 19, 19, 5, 85) IMAGE (m, 608, 608, 3) -> DEEP CNN -> ENCODING (m, 19, 19, 5, 85) 也就是有5个Anchor boxes,一共有80个分类。 所以,每个box的s
DeepLearning.ai作业:(4-2)-- 深度卷积网络实例探究(Deep convolutional models:case studies)
本周作业分为两部分,一部分是keras的基本使用,另一部分是ResNet的构建。