type
status
date
slug
summary
tags
category
icon
password
对数据进行分类
找到阈值
真实问题更加复杂
函数值发生变化
单位和量纲
可以进行公度
如何找到最好的那条分界线
决策和分工带来了更大的应用效能
如何进行训练和学习
完美划分
现实情况很可能没有一条合适的分界线
机器学习的目的不是训练而是预测
如果你在现有的数据就画了一个自己觉得完美的线,这个很可能是不靠谱的
因为如果数据量一大,就会出现新的更好分割线
选择判断标准很难
对未来可能情况的一种预测
找到间隔最大的表达式
点到直线的距离
寻找出最小的距离
输入不同的系数
接下来可以让计算机自动完成计算
用概率理解也可以
概率值越大 , 表示是它的可能性越大
相乘
所有的数据同时最大
log运算 连乘变为连加
误差和噪声
受到噪声干扰之后
方差最小最好
公设不同
哪种共设最好
都有共同点
函数值 不同维度公度
数学没有价值判断 ,是人类对现实世界的归纳,也可以说为是对未知的期待
求解非常难
算法 判断其的数值解
选择判断标准
为什么要选择直线 ,而不选择曲线呢
而是使用抛物线呢
无论多么奇怪的曲线都可以被取出来
曲线的复杂程度会更高
分类问题 与 回归问题没有本质区别
拟合 回归出曲线
同样的就在完成预测问题了
对于激活函数有要求
第一层的输出结果会作为第二层的输入
仍然是曲面
sigmoid
变得更加多样
神经元增加到四个
输出的曲面和复杂度都大大增加了
图像复杂程度越来越高
万能逼近
各种激活函数
神经网络的复杂性来自于激活函数
数据从两维变成了十维
矩阵理解为对向量的操作
对二位向量进行升维
把中间的神经元
只要维度够高就可以完成对数据的划分
也可以有多个输出
把多个而分类问题划分为多个二分类问题
都是两中情况的和
符合概率的定义
神经元在减少
不需要原始的所有维度
子特征
子特征越多越可能被进行复用
卷积神经网络 自己跟自己复用
如何对数据进行预处理也很讲究
这个算法没有别的 ,就是反向传播 、 梯度下降
用来求解
最基本问题
输出 y hat的函数
变量是x ,这里是有b的
训练关系会反过来
所有系数罗列为一个向量
极值点
最快的方向,但是没有每步
学习率过小 ,移动相同的步数到不了
依赖关系
不是完全没有关系的 ,而是会产生依赖
黑盒子当中是什么
向量计算
都会对其产生影响
求偏导的意义
偏导数在数学中有着重要的意义,特别是在多元函数的微积分中。偏导数表示了函数在某一点沿着某个特定方向的变化率。在多元函数中,一个函数可能依赖于多个变量,而偏导数可以告诉我们,当其中一个变量变化时,函数的变化率是多少,而其他变量保持不变。
具体来说,偏导数告诉我们在函数曲面上某一点沿着某一方向的斜率,或者说函数在该点沿着某一方向的变化速率。这对于优化问题、方程组的求解、以及对函数的行为进行分析都是至关重要的。
对系数的修改变成了这样的表达式
把更高层的影响也添加进去
每一个系数都有相对应的修改方案
链式求导的公式
与学习率想乘之后得到一个非常小的数值(这就是梯度消失问题)
神经网络本质来说是一次关于数学的加权求和
- Author:NotionNext
- URL:https://tangly1024.com/article/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E7%9A%84%E7%90%86%E8%A7%A3
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!