作业做到这里才真正进入了cnn的范畴。 先用最基本的循环来写forward 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606
Batch Normalization批量归一化相当于在每一层神经网络的激活函数前进行归一化预处理。 先写batchnorm_forward 1234567891011121314151617181920212223242526272829303132333435363738394041424344
吴恩达Coursera(DeepLearning.ai)笔记和作业汇总。 历时一个多月终于把NG的五门课全部学完并且做了作业和笔记了。这里汇总一下: 第一门课:神经网络和深度学习主要讲了神经网络的基本概念,以及机器学习的梯度下降法,向量化,而后进入了浅层和深层神经网络的实现。 前两周太简单了,在之前
这周作业分为了两部分: 机器翻译 触发关键字 Part1:机器翻译你将建立一个将人类可读日期(“2009年6月25日”)转换为机器可读日期(“2009-06-25”)的神经机器翻译(NMT)模型。 你将使用注意力机制来执行此操作,这是模型序列中最尖端的一个序列。 你将创建的模型可用于从一种语言翻译为
基础模型sequence to sequence 模型: sequence to sequence 模型最为常见的就是机器翻译,假如这里我们要将法语翻译成英文。 对于机器翻译的序列对序列模型,如果我们拥有大量的句子语料,则可以得到一个很有效的机器翻译模型。模型的前部分使用一个编码网络来对输入的法语句
将要写的博客 hexo(3) done layout的几种形式 阅读量统计 评论系统 访问量统计 seo设置 图床 done git总结 sql总结 shell命令总结 李宏毅DL NG,DL.AI
小伙伴们敬请留言吧!