回归 线性回归的四个假设 线性关系:自变量 x 和因变量y之间存在线性关系。 独立性: 残差是独立的。特别是,时间序列数据中的连续残差之间没有相关性。 同方差性: 残差在 x 的每个水平上都有恒定的方差。 正态性: 模型的残差呈正态分布。 误差和残差 误差是观察值与真实值之间的差;残差是观察值与模型
NN中的Bias? 偏置允许激活函数向左或向右移动以更好地适应数据。 反向传播是啥? 允许来自 Cost Function 的信息,从网络末端反向向前传播,以便计算梯度 -> 更新参数。 梯度消失 首先,要知道NN是基于链式法则,因此层数越深,梯度将以指数形式传播。 梯度越来越小,权重值不再产生变化
卷积神经网路 Convolutional Neural Network CNN CNN的结构 卷积层 Convolution 池化层(下采样) Polling 全连接层 Full connection 卷积层 最基础的2D卷积操作,涉及到一个2D的过滤器(filter),或者说是核(kernel)。
在机器学习中,如果想对对非线性函数进行建模,深度前馈网络能够实现非线性函数的建模。 在深度学习中,使用一个简单函数的深度链来学习输入数据。 线性函数的输入函数: \hat{y} = \theta^Tx 非线性函数的输入函数:\hat{y} = f(\phi(x);\theta) 其中,\phi(x)
关于这门课 这门课的授课老师是号称谢菲尔德大学最受欢迎的Lecture - Dr Sean Anderson。课堂的风格确实比较生动有趣,而且因为Deep Learning目前仍然比较前沿的原因,课堂上时常举一些比较cool或者exciting的例子,比如一次关于CUDA的课堂,开始跟我们讨论比特币