分类 线性代数 下的文章

引言

本文是对线性代数核心知识的笔记整理与扩展,因为笔者最近正在学习Gilbert Strang教授的Linear Algebra and Learning from Data(中文译名:线性代数与数据学习)一书,该书的第一章着重介绍了对应用线性代数的相关知识,该章节中从多个不同矩阵分解的视角来引领读者看待线性代数的本质核心。

本系列将记录笔者在学习线代知识的同时利用Python这一工具将数学理论转化为代码实践。

- 阅读剩余部分 -

引言

在高维向量空间中,施密特正交化(Gram-Schmidt Orthogonalization)是一种将线性无关向量组转化为正交单位向量组的经典方法。它广泛应用于线性代数、机器学习(如PCA降维)、数值分析等领域。本文将深入解析施密特正交化的定义、计算步骤及其应用。

- 阅读剩余部分 -

引言

在矩阵分析中,CR分解是一种基于矩阵列空间与行空间的结构化分解方法。它将任意矩阵分解为列满秩矩阵行满秩矩阵的乘积,为解决线性方程组、数据降维等问题提供了重要工具。本文将深入解析CR分解的定义、计算步骤及其应用。

- 阅读剩余部分 -