求广义逆的方法 广义矩阵有逆的前提是?

[更新]
·
·
分类:行业
3409 阅读

求广义逆的方法

广义矩阵有逆的前提是?

广义矩阵有逆的前提是?

设A是定义在复数域中的一个m * n阶矩阵,满足以下条件的n * m矩阵G被称为A的一个{1}-广义逆:对于任意一个m*1矩阵B,只要方程组AX B有解,则XGB一定是其中的一个解。
相关定理:
当且仅当G满足AGA A时,G才为A的一个{1}-广义逆,记为A-。
  需要注意的是,对于矩阵A,A-总是存在的,但并不是唯一的。其中满足以下的条件的广义逆矩阵A- 称为A的M-P广义逆矩阵,记为A :
  (1) GAG G
  (2) (GA)H GA
  (3) (AG)H AG
  对于矩阵A,M-P广义逆矩阵A 总是存在且是唯一的。我们平常所说的广义逆或者伪逆便是M-P广义逆矩阵A 。
  (说明:上标H表示共轭转置)
  求解A
  (1) 对A进行奇异值分解,得
  A PDQH
  其中,P、Q为酉矩阵,而
  
  (说明:1、当复数矩阵U满足UHU UUH E时,U称为酉矩阵;2、diag表示对角矩阵)
  (2) M-P广义逆矩阵A Q D -1PH

怎么根据正定二次型求正定矩阵?

本科的线性代数课程,侧重于运算。重点是:行列式和矩阵的基础内容,稍微涉及了实数域的线性变换、特征值与二次型。
而机器学习算法中,会使用到更多的矩阵知识,而这些知识是本科线代课程没有讲到的,比如:最小二乘、向量与矩阵的求导、酉矩阵、QR分解、酉等价、SVD分解、 矩阵、Jordan标准型、Hermite矩阵、Kronecker积、矩阵范数、正定矩阵、Gersgorin圆盘、广义逆等等内容。
可以说,机器学习的很多理论基础,就是建立在矩阵上,所以必须了解矩阵分析的知识才能彻底理解机器学习。
比如,主成分分析(principal Component Analysis, PCA) 实际上是一个基的变换,使得变换后的数据有着最大的方差,其计算就是使用SVD分解来完成。
关于矩阵分析的学习资料:
如果你不懂线性代数,建议先学一遍线性代数的知识,推荐 Sheldon Axler
的《Linear Algebra Done Right》
(中文名:《线性代数应该这样学》),这本书假设你只有基础的数学知识,适合作为自学用书
《Linear Algebra Done Right》英文版 下载地址:百度云下载
, 备份下载
如果对线性代数有一定了解,学习矩阵分析前,建议先学习一本只有43页
的小书《The Matrix Cookbook 》
,这本书是一本字典型的书籍,把矩阵分析相关的名词介绍了一遍,还对很多重要的概念进行了推导,可以带你快速入门矩阵分析
《The Matrix Cookbook 》下载地址:百度云下载
,备份下载
深入学习矩阵分析,需要扎实地对每一个概念进行理解后,再去学后面的知识。推荐 Roger A. Horn的《矩阵分析》,这本书的第0章介绍了各种定义,之后的每一章从最基础的概念讲起,循序渐进,非常适合自学
《矩阵分析》中文版 下载地址:
百度云下载
,备份下载