泛函分析怎么自学 泛函分析中的特征函数定义?

[更新]
·
·
分类:行业
3274 阅读

泛函分析怎么自学

泛函分析中的特征函数定义?

泛函分析中的特征函数定义?

泛函分析中的特征函数意思是指相应于随机变量和随机向量的特征函数,等价于整个过程的分布,又能快速的得到一切矩。

泛函分析难不难?

泛函分析难。
微分几何是运用微积分的理论研究空间的几何性质的数学分支学科。而泛函分析是从变分问题,积分方程和理论物理的研究中发展起来的。它综合运用函数论,几何学,现代数学的观点来研究无限维向量空间上的泛函,算子和极限理论。比微分几何困难许多。

泛函分析中集合有界的定义?

集合X有界的定义是存在r>0,使任意x,y∈X有,d(x,y)≤r。
完全有界要对任意r,存在有限个以r为半径的开球覆盖X。
完全有界集一定有界,因为对任意x,y∈X,存在开球A,B,使x∈A,y∈B,由于开球数有限,假设为N,开球A,B中心为x‘,y,则d(x,y)≤|x-x‘| |y-y| Nr,故X有界。
反之不成立,以有无穷点的离散度量空间为例:显然取任意大于1的r都能使d(x,y)≤r,但是对r<1,无法用有限个半径为r的开球覆盖X

为什么机器学习的理论中多处用到了泛函分析?

泛函分析其实应该叫算子理论,算子可以认为是函数空间到函数空间上的映射,而泛函是一类特殊的算子,它是到数域上的算子,例如机器学习中的SVM的核函数的定义式基于泛函分析中的Hilbert空间的。

现在最流行的机器学习模型,神经网络基本是就是一大堆向量、矩阵、张量。从激活函数到损失函数,从反向传播到梯度下降,都是对这些向量、矩阵、张量的操作和运算。
其他“传统”机器学习算法也大量使用线性代数。比如线性回归

对于机器学习的实用模型最有用的是监督学习,一般可以认为是分类,回归,监督学习的的主要目的就是假设函数空间中选出,期望损失最小的那一个函数,而且泛函就是研究函数空间的当然还有一个原因就是前几年的由svm延伸出来了核工程,也和泛函所契合(当时的主流还不是deep learning),但是泛函对于机器学习的提升到底有什么实际作用,只能观望了,毕竟微分流形也被引入到学习之中,但是对于机器学习的实践提生到底有没有效果就不好说了,一般而言,对于目前大多数流行的模型,按结构化数据和非结构化数据分类,或者是线性和非线性分类,根据任务类型选好模型,剩下我们要做的就是选取适合的特征和提供静可能多的数据了…………,你相信吗?还有所谓的量子机器学习,你觉得可靠吗?量子力学都没有搞明白,就和新机器学习模型”融合,你觉得这不是吹牛p吗?
[抠鼻]奉劝各位不要盲目投入所谓机器学习前沿,多多研究如何利用现有金典模型和业务融合,多多实践落地模型,和模型评价……,前沿的论文都是花式数学公式变化,然后声称1%的提前,你觉得这不是水论文吗?真的真理往往简单直接的,比如智能方程,欧拉公式,泰勒公式……,而不是一些没看过的范数融合形成的正则化技巧

使用中遇到多理解理解,多碰上几次就混个面熟了。一回生二回熟。记的学随机过程,开卷考试都费劲。明白用途,理解概念,一点点往里钻吧。

机器学习归根到底是数学问题,所以会用到很多数学基础