方法一:想办法获取更多数据

方法二:换个评判方式

常规

准确率 Accuracy

误差 Cost
Confusion Matrix

Precision & Recall

F1 Score ( or F-score)

方法三:重组数据

方法四:使用其它机器学习算法

方法五:修改算法

[展开全文]

W+= - Learning rate * dx

Stochastic Gradient Descent (SGD) 

Momentum

m = b1 * m - Learning rate * dx

W += m

NAG

AdaGrad

v += (dx)

W+= - Learning rate * dx /  √ (V)  

Adadelta

RMSProp

v = b1 *v + (1 -b1) * dx 

W+= - Learning rate * dx /  √ (V)  

Adam

m = b1 * m + (1 - b1) * dx

v =b2 * v + (1 - b2) * dx 

W+= - Learning rate * dx /  √ (V)  

[展开全文]

Linear

Nonelinear

y=Wx , y为预测值,W为参数,x为输入值

y=AF(Wx)

AF激励函数,relu, sigmoid, tanh,微分函数

少量层结构

卷积云  -> relu

RNN循环  -> relu or tanh

[展开全文]

自负 = 过拟合

方法一增加数据量

方法二正规化

cost = (Wx - real y) 2 

L1 regularization

cost = (Wx - real y) 2 + abs(W)

L2 regularization

cost = (Wx - real y) 2 + (W) 2

L3、L4 regularization

Dropout regularization

 

[展开全文]

避免无意义的信息

避免重复性的信息

避免复杂的信息

[展开全文]

minmax normalizaton -> (0,1) or (-1,1)

std normalization -> (mean=0,std=1)

[展开全文]

误差值,误差曲线Epochs

精确度,精度曲线Accuracy

R2 Score

F1 Score,不均衡数据曲线

过拟合

交叉验证

 

[展开全文]

压缩解压,通过对比,得出预测误差,原数据的精髓

非监督学习

[展开全文]

梯度消失,梯度弥散

梯度爆炸

[展开全文]

语言分类,序列化处理

描述照片、写学术论文、程序脚本、作曲

[展开全文]

图片识别、视频分析、自然语言处理

 

object models

object parts(combination of edges)

edges

pixels

 

Classifier

Fully Connected

Fully Connected

Max Pooling

Convolution

Max Pooling

Convolution

Image

[展开全文]

数学模型或是计算机模型

[展开全文]

监督学习:有数据有标签

非监督学习:有数据没有标签

半监督学习:

强化学习:从经验中总结提升

遗传学习:有着适者生存不适者淘汰准则

 

[展开全文]

人工神经元,统计学, 

[展开全文]

Imbalanced data

Accuracyzhun

Cost误差

Recall/Precision/F1 Score

重组数据

Decision tree

 

 

[展开全文]

Stochastic Gradient Descent (SGD)

Momentum

AdaGrad

RMSProp

Adam

加速训练,迅速收敛

[展开全文]

相关课程

开课日期:开始
免费课 12495
开课日期:开始
机器学习 7359

授课教师

微信扫码分享课程