ML

Linear Regression: 回归

Logistics Regression:分类

Sigmoid:将任意实数输入映射到(0,1)。

例子:体重和血糖

Linear Regression:体重x,血糖y。y=wx+b学习输入,做回归。

Logistics Regression:体重x;0血糖正常,1血糖高。

并不是所有的分类都给出概率。给出概率,可解释性高,是Logistics Regression的优点。

ReLU(Rectified Linear Unit)和 Sigmoid 都是 激活函数(activation function)

线性分类:

CNN:输入+nx[卷积层+激活+池化]+线性变换+输出层

有各种经典模版。如LeNet-5。

RNN:输入+nx[RNN隐藏层]+线性变换+输出层

FNN:nxF[线性变换+激活函数]

seq2seq中:

FNN:只用xi预测yi
RNN:维持一个state变量(ai-1),和每一个输入xi一起,参与每一个字yi的预测

RNN:一个state存储所有之前的信息,旧信息易丢失。

LSTM:用memory cells 和 3 x gates更新state,不会轻易丢失有用的信息,对长序列表现好。

Transformer:

命名实体识别 (NER)
BERT使用基于注意力的Encoder,把每个词都编码成
[词本义]+[词上下文信息] 的向量,然后直接进行分类。