「机器学习-李宏毅」:Recurrent Neural Network(RNN)
这篇文章中首先从RNN能解决什么问题入手,分析了RNN与一般NN的区别。
然后着重讲解了基于RNN的LSTM模型,包括LSTM的细节、和一般NN的区别,以及如何训练LSTM模型。
具体阐述了在模型(RNN类模型)训练过程中为什么会遇到剧烈抖动问题和如何解决抖动的工程解决方法。
这篇文章中首先从RNN能解决什么问题入手,分析了RNN与一般NN的区别。
然后着重讲解了基于RNN的LSTM模型,包括LSTM的细节、和一般NN的区别,以及如何训练LSTM模型。
具体阐述了在模型(RNN类模型)训练过程中为什么会遇到剧烈抖动问题和如何解决抖动的工程解决方法。
这篇文章中首先介绍了为什么要用CNN做图像识别,或者说图像识别问题的特点是什么?
文章中也详细介绍了CNN的具体架构,主要包括Convolution、Max Pooling、Flatten。
文章最后简要介绍了CNN在诸多领域的应用。
这篇文章中,详尽阐述了在训练Deep Neural Network时,改善performance的一些tips。
tips从Training和Testing两个方面展开。
在Training中结果不尽人意时,可以采取更换新的activation function(如ReLu,Maxout等)和采用Adaptive Learning Rate的GradientDescent算法(除了Adagrad,还有RMSprop、Momentum、Adam等)。
当在Training中得到好的performance,但在testing中perform bad时,即遇到了overfitting,又该怎么处理呢?文章后半部分详尽介绍了EarlyStopping、Regularization和Dropout三个solution。
这篇文章中,讲解了Deep Learning中使用的一种高效Gradient Descent的算法:BackPropagation。
BackPropagation通过正向传播和反向传播两个阶段,最后能一起算出损失函数对每一个参数的gradient。
在上篇文章中,讲解了怎么用Generative Model做分类问题。
这篇文章中,讲解了做Classification的另一种Discriminative的方式,也就是Logistic Regression。
文章主要有两部分:
第一部分讲解了Logistic Regression的三个步骤。
第二个部分讲解了multi-class多分类的三个步骤,以及softmax是如何操作的。
Classification 有Generative Model和Discriminative Model。
这篇文章主要讲述了用生成模型来做分类的原理及过程。
总结「李宏毅老师-机器学习」的Gradient,主要从以下三个方面展开:调节learning rate;加快训练速度;对数据进行Feature Scaling。