技术标签: 考研数学线代
作者:小海考研人
在考研数学线性代数中,秩为1的矩阵具有特殊意义,往年常考察其相关知识点。
其一是秩为 1 矩阵的特征值,特征值的计算是一个基本考点,其计算方法很多,包括:根据特征值的定义进行计算、由特征方程计算、利用特征值的各种性质进行计算,这些方法都是求特征值的基本方法,同学们需要熟练掌握,但这些方法只是针对一般矩阵的普遍方法,而对于一些特殊矩阵,有时采用一些特殊的方法或技巧则可以更灵活、更有效地解决问题。下文将对秩为1的特殊矩阵的特征值的计算方法做些分析,并提供典型例题供大家参考。
其二是秩为1矩阵是否能相似对角化,知道结论可以秒出结果。
其三是将秩为1矩阵拆为两列向量的乘积,在很多大题中常会用到。
若 n n n 阶矩阵 A = ( a i i ) A=\left( a_{ii} \right) A=(aii) 的秩为 1,则 A A A 的特征值为
λ 1 = λ 2 = ⋯ λ n − 1 = 0 \lambda _1=\lambda _2=\cdots \lambda _{n-1}=0 λ1=λ2=⋯λn−1=0
当 ∑ i = 1 n a i i ≠ 0 \sum_{i=1}^n{a_{ii}}\ne 0 ∑i=1naii=0 时,0为 A A A 的 n − 1 n-1 n−1 重特征值;当 ∑ i = 1 n a i i = 0 \sum_{i=1}^n{a_{ii}}=0 ∑i=1naii=0 时,0为 A A A 的 n n n 重特征值。这个结论可以用不同的方法证明(需要重点掌握)
证:法1(方程组法)
若 R ( A ) = 1 R(A)=1 R(A)=1 ,则 A x = 0 Ax=0 Ax=0 的基础解系含 n − 1 n-1 n−1 个线性无关解向量,由于 A x = 0 = 0 ⋅ x Ax=0=0 \cdot x Ax=0=0⋅x,所以这 n − 1 n-1 n−1 个线性无关的解向量都是属于特征值0的特征向量,因此0至少是 A A A 的 n − 1 n-1 n−1 重特征值。
设 λ 1 = λ 2 = ⋯ λ n − 1 = 0 \lambda _1=\lambda _2=\cdots \lambda _{n-1}=0 λ1=λ2=⋯λn−1=0,则由特征值的性质 λ 1 + λ 2 + ⋯ λ n − 1 + λ n = ∑ i = 1 n a i i \lambda _1+\lambda _2+\cdots \lambda _{n-1}+\lambda _n=\sum_{i=1}^n{a_{ii}} λ1+λ2+⋯λn−1+λn=∑i=1naii 得: λ n = ∑ i = 1 n a i i \lambda _n=\sum_{i=1}^n{a_{ii}} λn=∑i=1naii 。由此可知:
当 ∑ i = 1 n a i i ≠ 0 \sum_{i=1}^n{a_{ii}}\ne 0 ∑i=1naii=0 时,0为 A A A 的 n − 1 n-1 n−1 重特征值;当 ∑ i = 1 n a i i = 0 \sum_{i=1}^n{a_{ii}}=0 ∑i=1naii=0 时,0为 A A A 的 n n n 重特征值.
法2(特征方程法)
若 R ( A ) = 1 R(A)=1 R(A)=1 ,则 A A A 的列向量组的秩为 1,不妨设 A A A 的第一列为 α = ( a 1 , a 2 , ⋯ , a n ) T ≠ 0 ( a 1 ≠ 0 ) \alpha=\left(a_{1}, a_{2}, \cdots, a_{n}\right)^{T} \neq 0 \quad\left(a_{1} \neq 0\right) α=(a1,a2,⋯,an)T=0(a1=0),则其它列均可由 α \alpha α 线性表示,于是 A A A 可表示为:
A = ( b 1 α , b 2 α , ⋯ , b n α ) = α β T A=\left(b_{1} \alpha, b_{2} \alpha, \cdots, b_{n} \alpha\right)=\alpha \beta^{T} A=(b1α,b2α,⋯,bnα)=αβT,其中 b 1 = 1 , β = ( b 1 , b 2 , ⋯ , b n ) T b_{1}=1, \quad \beta=\left(b_{1}, b_{2}, \cdots, b_{n}\right)^{T} b1=1,β=(b1,b2,⋯,bn)T
∣ λ E − A ∣ = ∣ λ − a 1 b 1 − a 1 b 2 ⋯ − a 1 b n − a 2 b 1 λ − a 2 b 2 ⋯ − a 2 b n ⋮ ⋮ ⋮ − a n b 1 − a n b 2 ⋯ λ − a n b n ∣ |\lambda E-A|=\left|\begin{array}{cccc}\lambda-a_{1} b_{1} & -a_{1} b_{2} & \cdots & -a_{1} b_{n} \\ -a_{2} b_{1} & \lambda-a_{2} b_{2} & \cdots & -a_{2} b_{n} \\ \vdots & \vdots & & \vdots \\ -a_{n} b_{1} & -a_{n} b_{2} & \cdots & \lambda-a_{n} b_{n}\end{array}\right| ∣λE−A∣=∣∣∣∣∣∣∣∣∣λ−a1b1−a2b1⋮−anb1−a1b2λ−a2b2⋮−anb2⋯⋯⋯−a1bn−a2bn⋮λ−anbn∣∣∣∣∣∣∣∣∣
= ∣ λ − a 1 b 1 − a 1 b 2 ⋯ − a 1 b n − a 2 a 1 λ λ ⋯ 0 ⋮ ⋮ ⋮ − a n a 1 λ 0 ⋯ λ ∣ =\left|\begin{array}{cccc} \lambda-a_{1} b_{1} & -a_{1} b_{2} & \cdots & -a_{1} b_{n} \\ -\frac{a_{2}}{a_{1}} \lambda & \lambda & \cdots & 0 \\ \vdots & \vdots & & \vdots \\ -\frac{a_{n}}{a_{1}} \lambda & 0 & \cdots & \lambda \end{array}\right| =∣∣∣∣∣∣∣∣∣λ−a1b1−a1a2λ⋮−a1anλ−a1b2λ⋮0⋯⋯⋯−a1bn0⋮λ∣∣∣∣∣∣∣∣∣
= λ − ∑ i = 1 n a i b i − a 1 b 2 ⋯ − a 1 b n 0 λ ⋯ 0 ⋮ ⋮ ⋮ 0 0 ⋯ λ =\begin{array}{|cccc|} \lambda-\sum_{i=1}^{n} a_{i} b_{i} & -a_{1} b_{2} & \cdots & -a_{1} b_{n} \\ 0 & \lambda & \cdots & 0 \\ \vdots & \vdots & & \vdots \\ 0 & 0 & \cdots & \lambda \end{array} =λ−∑i=1naibi0⋮0−a1b2λ⋮0⋯⋯⋯−a1bn0⋮λ
= λ n − 1 ( λ − ∑ i = 1 n a i b i ) =\lambda^{n-1}\left(\lambda-\sum_{i=1}^{n} a_{i} b_{i}\right) =λn−1(λ−i=1∑naibi)
故: λ 1 = λ 2 = ⋯ = λ n − 1 = 0 , λ n = ∑ i = 1 n a i b i \lambda_{1}=\lambda_{2}=\cdots=\lambda_{n-1}=0, \lambda_{n}=\sum_{i=1}^{n} a_{i} b_{i} λ1=λ2=⋯=λn−1=0,λn=∑i=1naibi
由于 A = ( a i b j ) = ( a i i ) , A=\left(a_{i} b_{j}\right)=\left(a_{i i}\right), A=(aibj)=(aii), 所以 a i i = a i b i , a_{i i}=a_{i} b_{i}, aii=aibi, 故 λ n = ∑ i = 1 n a i b i = ∑ i = 1 n a i i \lambda_{n}=\sum_{i=1}^{n} a_{i} b_{i}=\sum_{i=1}^{n} a_{i i} λn=∑i=1naibi=∑i=1naii
由此可知 , , , 当 ∑ i = 1 n a i i ≠ 0 \sum_{i=1}^{n} a_{i i} \neq 0 ∑i=1naii=0时, 0 为 A A A 的 n − 1 n-1 n−1 重特征值 ; ; ; 当 ∑ i = 1 n a i i = 0 \sum_{i=1}^{n} a_{i i}=0 ∑i=1naii=0 时 , 0 , 0 ,0 为 A A A 的 n n n 重特征值。
若 A n × n , A_{n \times n}, An×n, 且 r ( A ) = 1 r(A)=1 r(A)=1
梯度下降的定义梯度下降问题就是沿着导数下降的地方移动,直到某点梯度最小,这个时候就达到了最优解多变量的梯度下降问题神经网络中遇到的问题是多变量的最优解,即多变量的梯度为零的解局部最优和全局最优问题通常,我们求得的最优解不一定是全局最优解,其可能只是局部最优解。...
ui->startDateEdit->setDisplayFormat("yyyy-MM-dd"); ui->endDateEdit->setDisplayFormat("yyyy-MM-dd"); //mor QDate current_date =QDate::currentDate(); ui->startDateEdit->...
一、问题在使用FileInputStream或FileOutputStream时会遇到如下问题1和问题2。问题1:java.io.FileNotFoundException: .\xxx\xxx.txt (系统找不到指定的路径。)at java.io.FileOutputStream.open(Native Method)at java.io.FileOutputStream.(Unknown S...
BEM基于组件方式的web开发方法,基本思想是将用户界面分成独立的模块。Block(块)(通常指模块,组件) Block 是一个逻辑上和功能上独立的页面组件,等同于网页组件中的部件(等同于网页中的组件)。Block 封装了行为(Javascript)、模板、样式(CSS)和其他实现技术。独立状态的 Block 可供复用,并且促进项目开发和维护。内容模块名称:描述...
在idea中添加方法之间的分割线,让你的代码看起来更有格子衫的气息更有条理,更有可读性。 ????
技术优点VRRP具有如下优点: 简化管理:在具有多播或广播能力的局域网中,借助VRRP 能在某台设备出现故障时仍然提供高可靠的缺省链路,有效避免单一链路发生故障后网络中断的问题,无需修改主机的默认网关配置。 适应性强:VRRP 报文封装在 IP 报文中,支持各种上层协议。 网络开销小:VRRP 只定义了一种报文–VRRP 通告报文,并且只有处于Master 状态的路由器可以发送 VRRP 报文。Virtual Router Redundancy Prot
Django的部署可以有很多方式,采用nginx+uwsgi的方式是其中比较常见的一种方式。 在这种方式中,我们的通常做法是,将nginx作为服务器最前端,它将接收WEB的所有请求,统一管理请求。nginx把所有静态请求自己来处理(这是NGINX的强项)。然后,NGINX将所有非静态请求通过uwsgi传递给Django,由Django来进行处理,从而完成一次WEB请求。uwsgi官网:http:/
SELECT * FROM ORDERS WHERE EXISTS(SELECT *FORM ORDERS WHERE NAME#=SB) 这样会返回orders里面所有的值,而不是只有NAME#=SB的值 SELECT * FROM ORDERS WHERE EXISTS (SELECT * FROM CUSTOMER C WHERE STATE=NE AND C.NAME#=O
iOS开发 UIWebView加载失败 我想重新加载怎么做,使用reload不顶用 解决办法:重新使用loadRequest:设置超时 NSURL *url=[NSURL URLWithString:@"http://www.baidu.com"]; NSURLRequest *request = [[NSURLRequest alloc] initWithURL:url
#include 文件夹操作函数。GCC,非ANSI C。 作用不作为C标准的部分,而是被认为“冒充标准”并且可靠地是便携式的在平台之间。含有以下类型和函数DIR *dir; //DIR表示目录类型/* struct dirent 结构体包含:* ino_t d_ino file serial n
如果不是配置路径的问题,可以尝试修改路由文件router.js的mode:"hash"因为如果mode:"history"也会导致空白页
迭代器模式提供一种方法来访问聚合对象,而不用暴露这个对象的内部表示,其别名为游标。迭代器模式使用对象行为型的模式。(1)遍历和管理未作分离,导致聚合类的职责过重,既可以负责存储和管理数据,又负责遍历数据,违反了单一职责,给测试和维护增加难度。(2)如果将抽象聚合类声明为一个接口,则这个接口充斥了大量的方法,不利于子类实现,违反了接口隔离原则。(3)如果将所有的遍历操作交给了子类,将导致子类代码非常庞大,而且必须暴露AbstractObjectList的内部存储细节,向子类公开自己的属性,破坏