心连心鲜花网 加入收藏  -  设为首页
您的位置:心连心鲜花网 > 知识百科 > 正文

目录

1,机器学习应该准备哪些数学预备知识

机器学习应该准备哪些数学预备知识

我们知道,机器学习涉及到很多的工具,其中最重要的当属数学工具了,因此必要的数学基础可谓是打开机器学习大门的必备钥匙。机器学习涉及到的数学基础内容包括三个方面,分别是线性代数、概率统计和最优化理论。下面小编就会好好给大家介绍一下机器学习中涉及到的数学基础知道,让大家在日常的机器学习中可以更好地运用数学工具。 首先我们给大家介绍一下线性代数,线性代数起到的一个最主要的作用就是把具体的事物转化成抽象的数学模型。不管我们的世界当中有多么纷繁复杂,我们都可以把它转化成一个向量,或者一个矩阵的形式。这就是线性代数最主要的作用。所以,在线性代数解决表示这个问题的过程中,我们主要包括这样两个部分,一方面是线性空间理论,也就是我们说的向量、矩阵、变换这样一些问题。第二个是矩阵分析。给定一个矩阵,我们可以对它做所谓的SVD分解,也就是做奇异值分解,或者是做其他的一些分析。这样两个部分共同构成了我们机器学习当中所需要的线性代数。 然后我们说一下概率统计,在评价过程中,我们需要使用到概率统计。概率统计包括了两个方面,一方面是数理统计,另外一方面是概率论。一般来说数理统计比较好理解,我们机器学习当中应用的很多模型都是来源于数理统计。像最简单的线性回归,还有逻辑回归,它实际上都是来源于统计学。在具体地给定了目标函数之后,我们在实际地去评价这个目标函数的时候,我们会用到一些概率论。当给定了一个分布,我们要求解这个目标函数的期望值。在平均意义上,这个目标函数能达到什么程度呢?这个时候就需要使用到概率论。所以说在评价这个过程中,我们会主要应用到概率统计的一些知识。 最后我们说一下最优化理论,其实关于优化,就不用说了,我们肯定用到的是最优化理论。在最优化理论当中,主要的研究方向是凸优化。凸优化当然它有些限制,但它的好处也很明显,比如说能够简化这个问题的解。因为在优化当中我们都知道,我们要求的是一个最大值,或者是最小值,但实际当中我们可能会遇到一些局部的极大值,局部的极小值,还有鞍点这样的点。凸优化可以避免这个问题。在凸优化当中,极大值就是最大值,极小值也就是最小值。但在实际当中,尤其是引入了神经网络还有深度学习之后,凸优化的应用范围越来越窄,很多情况下它不再适用,所以这里面我们主要用到的是无约束优化。同时,在神经网络当中应用最广的一个算法,一个优化方法,就是反向传播。

2,学好机器学习和深度学习要哪些知识储备

重要性按照顺序给你排好: 线性代数(数学基础,理解算法必要的东西) 矩阵论(无论是网络结构还是编程实现,都需要矩阵论来支撑计算) 概率论与数理统计(人工智能中到处都是概率分布,概率论的一些重要概念,比如先验概率后验概率,都很重要) 数据结构(不仅包含栈队列,图论和树也很重要) 一门编程语言,可以是python,c++等

3,meanshift算法的准确性

meanshift算法的原理很简单。假设你有一堆点集,还有一个小的窗口,这个窗口可能是圆形的,现在你可能要移动这个窗口到点集密度最大的区域当中。【摘要】
meanshift算法的准确性【提问】
meanshift算法的原理很简单。假设你有一堆点集,还有一个小的窗口,这个窗口可能是圆形的,现在你可能要移动这个窗口到点集密度最大的区域当中。【回答】
最开始的窗口是蓝色圆环的区域,命名为C1。蓝色圆环的圆心用一个蓝色的矩形标注,命名为C1_o。而窗口中所有点的点集构成的质心在蓝色圆形点C1_r处,显然圆环的形心和质心并不重合。所以,移动蓝色的窗口,使得形心与之前得到的质心重合。在新移动后的圆环的区域当中再次寻找圆环当中所包围点集的质心,然后再次移动,通常情况下,形心和质心是不重合的。不断执行上面的移动过程,直到形心和质心大致重合结束。 这样,最后圆形的窗口会落到像素分布最大的地方,也就是图中的绿色圈,命名为C2。meanshift算法除了应用在视频追踪当中,在聚类,平滑等等各种涉及到数据以及非监督学习的场合当中均有重要应用,是一个应用广泛的算法。图像是一个矩阵信息,如何在一个视频当中使用meanshift算法来追踪一个运动的物体呢? 大致流程如下:1.首先在图像上选定一个目标区域2.计算选定区域的直方图分布,一般是HSV色彩空间的直方图。3.对下一帧图像b同样计算直方图分布。4.计算图像b当中与选定区域直方图分布最为相似的区域,使用meanshift算法将选定区域沿着最为相似的部分进行移动,直到找到最相似的区域,便完成了在图像b中的目标追踪。5.重复3到4的过程,就完成整个视频目标追踪。通常情况下我们使用直方图反向投影得到的图像和第一帧目标对象的起始位置,当目标对象的移动会反映到直方图反向投影图中,meanshift 算法就把我们的窗口移动到反向投影图像中灰度密度最大的区域了【回答】
假设我们有一张100x100的输入图像,有一张10x10的模板图像,查找的过程是这样的:1.从输入图像的左上角(0,0)开始,切割一块(0,0)至(10,10)的临时图像;2.生成临时图像的直方图;3.用临时图像的直方图和模板图像的直方图对比,对比结果记为c;4.直方图对比结果c,就是结果图像(0,0)处的像素值;5.切割输入图像从(0,1)至(10,11)的临时图像,对比直方图,并记录到结果图像;6.重复1~5步直到输入图像的右下角,就形成了直方图的反向投影【回答】
参数:·probImage: ROI区域,即目标的直方图的反向投影·window: 初始搜索窗口,就是定义ROI的rect·criteria: 确定窗口搜索停止的准则,主要有迭代次数达到设置的最大值,窗口中心的漂移值大于某个设定的限值等。实现Meanshift的主要流程是:1.读取视频文件:cv.videoCapture()2.感兴趣区域设置:获取第一帧图像,并设置目标区域,即感兴趣区域3.计算直方图:计算感兴趣区域的HSV直方图,并进行归一化4.目标追踪:设置窗口搜索停止条件,直方图反向投影,进行目标追踪,并在目标位置绘制矩形框。【回答】
算法总结meanshift原理:一个迭代的步骤,即先算出当前点的偏移均值,移动该点到其偏移均值,然后以此为新的起始点,继续移动,直到满足一定的条件结束。API:cv.meanshift()优缺点:简单,迭代次数少,但无法解决目标的遮挡问题并且不能适应运动目标的的形状和大小变化camshift原理:对meanshift算法的改进,首先应用meanshift,一旦meanshift收敛,它就会更新窗口的大小,还计算最佳拟合椭圆的方向,从而根据目标的位置和大小更新搜索窗口。API:cv.camshift()优缺点:可适应运动目标的大小形状的改变,具有较好的跟踪效果,但当背景色和目标颜色接近时,容易使目标的区域变大,最终有可能导致目标跟踪丢失【回答】
meanshift是如何分割图像【提问】
首先meanshift是一种特征空间分析方法,要利用此方法来解决特定问题,需要将该问题映射到特征空间。对于图像分割,我们可以映射到颜色特征空间,比如将RGB图片,映射到Luv特征空间,图1是L-u二维可视化的效果。 图像分割就是求每一个像素点的类标号。类标号取决于它在特征空间所属的cluster。对于每一个cluster,首先得有个类中心,它深深地吸引着一些点,就形成了一个类,即类中心对类中的点构成一个basin of attraction ,好比咱们的太阳系。如此,图像分割问题,就可以看成对每个像素点,找它的类中心问题,因为找到类中心就知道它是属于那一类啦,即类中心一样的点就是一类。【回答】
图2标准化后的概率密度可视化效果 -> 聚类分割结果 密度估计的思路需要解决两个问题,what:中心是什么?how:怎么找?mean shift认为中心是概率密度(probalility density function )的极大值点,如图2中的红色点,原文称之为mode,我这暂且用模点吧(某篇论文是如此称呼)。对于每个点怎样找到它的类中心呢?只要沿着梯度方向一步一步慢慢爬,就总能爬到极值点,图2中黑色的线,就是爬坡的轨迹。这种迭代搜索的策略在最优化中称之为 multiple restart gradient descent。不过,一般的gradient descent并不能保证收敛到局部极值,但mean shift 可以做到,因为它的步长是自适应调整的,越靠近极值点步长越小。 也就是说meanshift的核心就两点,密度估计(Density Estimation) 和mode 搜索。对于图像数据,其分布无固定模式可循,所以密度估计必须用非参数估计,选用的是具有平滑效果的核密度估计(Kernel density estimation,KDE)。【回答】
a)灰度图可视化à(b)mean shift模点路径à(c)滤波后效果à(d)分割结果 分三步走:模点搜索/图像平滑、模点聚类/合并相似区域、兼并小区域(可选)。模点搜索是为了找到每个数据点的到类中心,以中心的颜色代替自己的颜色,从而平滑图像。但模点搜索得到的模点太多,并且很多模点挨得很近,若果将每个模点都作为一类的话,类别太多,容易产生过分割,即分割太细,所以要合并掉一些模点,也就是合并相似区域。模点聚类后所得到的分割区域中,有些区域所包含的像素点太少,这些小区域也不是我们想要的,需要再次合并。2.1 模点搜索/图像平滑 建议先看[2]中的演示(P4-12) 图像中的点【转载】Mean Shift 图像分割(一)包括两类信息:坐标空间(spatial,【转载】Mean Shift 图像分割(一),【转载】Mean Shift 图像分割(一)),颜色空间(range ,【转载】Mean Shift 图像分割(一),【转载】Mean Shift 图像分割(一))。这些就构成了特征空间。 模点搜索(OpenCV):某一个点【转载】Mean Shift 图像分割(一),它在联合特征空间【转载】Mean Shift 图像分割(一)中迭代搜索它的mode/模点【转载】Mean Shift 图像分割(一); 图像平滑: 将模点的颜色值赋给它自己,即【转载】Mean Shift 图像分割(一).对应原文中的图像平滑,实质上是通过模点搜索,达到图像平滑的效果, 所以我合并为以一步。 设点【转载】Mean Shift 图像分割(一)依次爬过的脚印为:【转载】Mean Shift 图像分割(一) 出发时【转载】Mean Shift 图像分割(一),它所收敛到的模点为【转载】Mean Shift 图像分割(一),c代表convergence。 第一步:如果迭代次数超过最大值(默认最多爬5次),结束搜索跳到第四步,否则,在坐标空间,筛选靠近【转载】Mean Shift 图像分割(一)的数据点进入下一步计算。 OpenCV是以【转载】Mean Shift 图像分割(一)的坐标 【转载】Mean Shift 图像分割(一)为中心,边长为【转载】Mean Shift 图像分割(一)的方形区域【转载】M【回答】
二维可视化效果 【转载】Mean Shift 图像分割(一)是一个以【转载】Mean Shift 图像分割(一)(第【转载】Mean Shift 图像分割(一)步位置的颜色值)为球心,半径为【转载】Mean Shift 图像分割(一)的球体,球体内部值为1,球体外部值为0。对于经过上一步筛选后幸存的数据点【转载】Mean Shift 图像分割(一),如果其颜色值【转载】Mean Shift 图像分割(一)满足【转载】Mean Shift 图像分割(一),也就是颜色值落也在球内,那么求重心【转载】Mean Shift 图像分割(一)时,就要算上【转载】Mean Shift 图像分割(一),否则落在球外,算重心时,就不带上它。实际上,上一步是依据坐标空间距离筛选数据点,【转载】Mean Shift 图像分割(一)是依据颜色距离进一步筛选数据点,上一步的筛子是矩形,这一步是球体。 简而言之,设满足【转载】Mean Shift 图像分割(一)的点依次为【转载】Mean Shift 图像分割(一),那么重心计算公式可以进一步化简为:【转载】Mean Shift 图像分割(一) 是不是很简单呢,初中知识吧。 注意:上文中的两个参数【转载】Mean Shift 图像分割(一),是Mean shift最核心的两个参数(还有一个可选的M),具有直观的意义,分别代表坐标空间和颜色空间的核函数带宽。 第三步:判断是否到模点了,到了就停止。 如果,移动后颜色或者位置变化很小,则结束搜索,跳到第四步,否则重返第一步,从【转载】Mean Shift 图像分割(一)继续爬。OpenCV停止搜索的条件: (1)坐标距离不变【转载】Mean Shift 图像分割(一) (2)颜色变化值很小【转载】Mean Shift 图像分割(一)。 满足一条就可以功成身退,否则继续努力。 第四步:将模点【转载】Mean Shift 图像分割(一)的颜色【转载】Mean Shift 图像分割(一)赋给出发点【转载】Mean Shift 图像分割(一)/【转载】Mean Shift 图像分割(一),即【转载】Mean Shift 图像分割(一)。 注意:原文这一步,不仅将模点的颜色值赋给【转载】Mea【回答】
当然考虑Outlier,使用中值更好。 假设合并之后得到m类【转载】Mean Shift 图像分割(一)。对于原文的算法,每个像素点【转载】Mean Shift 图像分割(一)的标号【转载】Mean Shift 图像分割(一)就是其模点【转载】Mean Shift 图像分割(一)所属的模点集合的类标号,比如【转载】Mean Shift 图像分割(一)。不过,OpenCV是【转载】Mean Shift 图像分割(一)所属集合的类标号。 不过,从原文结果来看,得到的结果并不是类标号,因为类标号一般都是序号,比如1,2,……,然后显示分割结果的时候,就给每一类随机分配一种独有的颜色。但原文的分割结果貌似是这一类的总体颜色值,我猜测原算法可能是用(加权)求平均的方式得到类的颜色值,然后属于这一类的像素点就用这个颜色代替。 注意:这一步实现的是合并相似区域,但本质上还是而是合并模点,或者说模点聚类,因为每个像素点的值,就是它所属模点的颜色值【转载】Mean Shift 图像分割(一)/模点的联合信息【转载】Mean Shift 图像分割(一)。2.3 兼并小区域【转载】Mean Shift 图像分割(一) 【转载】Mean Shift 图像分割(一)OpenCV的分割结果 上一步合并了一些模点,但是,对于一些小区域,如果它和周围的颜色差异特别大,那么它们也会自成一类,这些小家伙让需要进一步合并。不过,OpenCV的实现中,并没有包含这一步,所以分割出的结果中包含了太多芝麻大点的区域,本人很不满意,有时间再加进去,还得优化下代码,这个实现实在是太慢了。怎么兼并小的区域呢?原文没说,我也没看他的源代码,我们可以直接将包含像素点少于【转载】Mean Shift 图像分割(一)的区域与它最相似的区域合并,实际中,小区域往往是被大区域兼并了【回答】
meanshift算法利用特征空间有什么用【提问】
比如薛定谔方程,建立特征空间,首先要确定特征值,如果知道了能量本征值,就没必要求解薛定谔方程了吧?即使是光谱,也只能是能量本征值之差而【回答】
有什么好处呢?【提问】
说错了,不好意思【提问】
抱歉 帮不了 你这个【回答】
什么?【回答】
他与一般的分割算法有什么不同呢,最后一个问题了,打扰了【提问】
你说哪个与一般分割 算法有不同啊?【回答】
边缘分割【提问】
图像分割是指将特定的影像分割成区域内部属性一致而区域间不一致的技术。一般图像分割方法分为基于阈值的方法,基于边缘的方法,基于区域的方法和基于特定理论的方法,基于边缘的方法就是首先进行边缘提取,认为边缘内的区域就是同一属性的,然后进行边缘连接把边缘闭合起来形成区域。因此可以说边缘处理只是图像分割的一种。【回答】