归档: 2018
cs231n作业:assignment2 - Batch Normalization and Dropout
Batch Normalization批量归一化相当于在每一层神经网络的激活函数前进行归一化预处理。
DeepLearning.ai作业:(5-3) -- 序列模型和注意力机制
这周作业分为了两部分: 机器翻译 触发关键字 Part1:机器翻译你将建立一个将人类可读日期(“2009年6月25日”)转换为机器可读日期(“2009-06-25”)的神经机器翻译(NMT)模型。 你将使用注意力机制来执行此操作,这是模型序列中最尖端的一个序列。 你将创建的模型可用于从一种语言翻译为另一种语言,如从英语翻译为印地安语。 但是,语言翻译需要大量的数据集,并且通常需要几天的GPU
DeepLearning.ai笔记:(5-3) -- 序列模型和注意力机制
基础模型sequence to sequence 模型: sequence to sequence 模型最为常见的就是机器翻译,假如这里我们要将法语翻译成英文。 对于机器翻译的序列对序列模型,如果我们拥有大量的句子语料,则可以得到一个很有效的机器翻译模型。模型的前部分使用一个编码网络来对输入的法语句子进行编码,后半部分则使用一个解码网络来生成对应的英文翻译。网络结构如下图所示: 还有输入图像,
DeepLearning.ai作业:(5-1)-- 循环神经网络(Recurrent Neural Networks)(1)
本周作业分为三部分: 手动建一个RNN模型 搭建一个字符级的语言模型来生成恐龙的名字 用LSTM生成爵士乐