1樓:匿名使用者
你好!首先,r(s)=n-r(a),r(s)是基礎解系的秩,n是未知數的個數,r(a)是化為最簡型增廣矩陣的秩,於是你截圖的那個方程的基礎解系的向量個數r(s)=3-1=2,所以有兩個基礎解系,****的是其中一種,你寫的又是一種,只要這兩個向量線性無關,都可以作為基礎解系的一組解,於是特徵向量的通解或者說全體解是k1a1+k2a2,a1和a2是你取的一組線性無關的解,k1和k2是實數,綜合上述,不一定要和答案寫的一模一樣,只要滿足基礎解系向量線性無關即可,如果改卷老師發現和標準答案不一致,她會驗算的。第二點,特徵向量不同算出來的正交陣不一樣不算錯,你可以看看這類題目讓你求的時候,問題都是這樣出的:
求乙個正交陣p使對稱陣a對角化。求乙個,換言之,答案有很多個,你只要求出乙個正確的即可,老師同樣也會驗證和標準答案不同的解答的,就像微分方程題目一樣,很少有人能把特解求的和標準答案一樣的。
2樓:寒楓
特徵向量有很多,選擇的特徵向量不同正交陣自然不同,答案一樣正確,寫的和答案一樣好處也就是方便你檢查有沒有計算錯誤了
線性代數 計算矩陣特徵向量時 答案是唯一的嗎 我為什麼算出來和答案不一樣?
3樓:匿名使用者
你好!一copy個矩陣特徵值是確定bai的,但對應的特徵向量
du並不唯一,乙個特徵向量的zhi任何非零倍數也是特徵向量,dao同一特徵值的不同特徵向量的線性組合也是特徵向量。你只需驗證aα=λα就可知道自己做得是否正確。。經濟數學團隊幫你解答,請及時採納。謝謝!
4樓:魅力魔都
不唯一的
乙個矩陣的特徵值是唯一的
特徵值對應的特徵向量為非零向量,也就是你求出的向量 可以乘以 非零常數k ,均是對應的特徵向量
5樓:匿名使用者
特徵向量不是唯一的,
6樓:匿名使用者
不一定的,這要看你的取值是否和參***一樣,如果不一樣答案就不一樣但是也是對的。一般參***都會選取最簡單最簡化的值代入
7樓:finally淡忘
我上學期學的線性代數 答案肯定是唯一的啊 我們的是考查課 所以我也啥也沒學會 但是我可以肯定的告訴你 答案是唯一的 你答案不唯一就是化簡的問題咯 化簡很難得。
線性代數,求特徵值和特徵向量
8樓:dear豆小姐
||特徵值 λ = -2, 3, 3,特徵向量
: (1 0 -1)^t、(3 0 2)^t。
解:|λe-a| =
|λ-1 -1 -3|
| 0 λ-3 0|
|-2 -2 λ|
|λe-a| = (λ-3)*
|λ-1 -3|
|-2 λ|
|λe-a| = (λ-3)(λ^2-λ-6) = (λ+2)(λ-3)^2
特徵值 λ = -2, 3, 3
對於 λ = -2, λe-a =
[-3 -1 -3]
[ 0 -5 0]
[-2 -2 -2]
行初等變換為
[ 1 1 1]
[ 0 1 0]
[ 0 2 0]
行初等變換為
[ 1 0 1]
[ 0 1 0]
[ 0 0 0]
得特徵向量 (1 0 -1)^t。
對於重特徵值 λ = 3, λe-a =
[ 2 -1 -3]
[ 0 0 0]
[-2 -2 3]
行初等變換為
[ 2 -1 -3]
[ 0 -3 0]
[ 0 0 0]
行初等變換為
[ 2 0 -3]
[ 0 1 0]
[ 0 0 0]
得特徵向量 (3 0 2)^t。
答:特徵值 λ = -2, 3, 3,特徵向量: (1 0 -1)^t、(3 0 2)^t。
擴充套件資料
特徵值是線性代數中的乙個重要概念。在數學、物理學、化學、計算機等領域有著廣泛的應用
設 a 是n階方陣,如果存在數m和非零n維列向量 x,使得 ax=mx 成立,則稱 m 是a的乙個特徵值(characteristic value)或本徵值(eigenvalue)。
非零n維列向量x稱為矩陣a的屬於(對應於)特徵值m的特徵向量或本徵向量,簡稱a的特徵向量或a的本徵向量。
矩陣的特徵向量是矩陣理論上的重要概念之一,它有著廣泛的應用。數學上,線性變換的特徵向量(本徵向量)是乙個非簡併的向量,其方向在該變換下不變。該向量在此變換下縮放的比例稱為其特徵值(本徵值)。
9樓:匿名使用者
|a-λ
e| =
1-λ 2 3
2 1-λ 3
3 3 6-λ
r1-r2
-1-λ 1+λ 0
2 1-λ 3
3 3 6-λ
c2+c1
-1-λ 0 0
2 3-λ 3
3 6 6-λ
= (-1-λ)[(3-λ)(6-λ)-18]= (-1-λ)[λ^2-9λ]
= λ(9-λ)(1+λ)
所以a的特徵值為 0, 9, -1
ax = 0 的基礎解系為: a1 = (1,1,-1)'
所以,a的屬於特徵值0的全部特徵向量為: c1(1,1,-1)', c1為非零常數.
(a-9e)x = 0 的基礎解系為: a2 = (1,1,2)'
所以,a的屬於特徵值9的全部特徵向量為: c2(1,1,2)', c2為非零常數.
(a+e)x = 0 的基礎解系為: a3 = (1,-1,0)'
所以,a的屬於特徵值-1的全部特徵向量為: c3(1,-1,0)', c3為非零常數.
10樓:匿名使用者
你好,滿意請採納哦!
|a-λe|=
2-λ 3 2
1 8-λ 2
-2 -14 -3-λ
= -(λ-1)(λ-3)^2=0
解得特徵值為1,3,3
1對應的特徵向量:
(a-e)x=0
係數矩陣:
1 3 2
1 7 2
-2 -14 -4
初等行變換結果是:
1 0 2
0 1 0
0 0 0
所以特徵向量是[-2 0 1]^t
3對應的特徵向量:
(a-3e)x=0
係數矩陣:
-1 3 2
1 5 2
-2 -14 -6
初等行變換結果是:
1 1 0
0 2 1
0 0 0
所以特徵向量是[1 -1 2]^t
11樓:
乙個基本結論:
矩陣所有特徵值的和為主對角線上元素的和。
所以,兩個特徵值之和為
1+3=4
12樓:匿名使用者
λ||λ|λe-a| =
|λ-1 -1 -3|| 0 λ-3 0||-2 -2 λ||λe-a| = (λ-3)*
|λ-1 -3|
|-2 λ|
|λe-a| = (λ-3)(λ^2-λ-6) = (λ+2)(λ-3)^2
特徵值 λ = -2, 3, 3
對於 λ = -2, λe-a =
[-3 -1 -3]
[ 0 -5 0]
[-2 -2 -2]
行初等變換為
[ 1 1 1][ 0 1 0][ 0 2 0]行初等變換為
[ 1 0 1][ 0 1 0][ 0 0 0]得特徵向量 (1 0 -1)^t對於重特徵值 λ = 3, λe-a =
[ 2 -1 -3]
[ 0 0 0]
[-2 -2 3]
行初等變換為
[ 2 -1 -3]
[ 0 -3 0]
[ 0 0 0]
行初等變換為
[ 2 0 -3]
[ 0 1 0]
[ 0 0 0]
得特徵向量 (3 0 2)^t.
13樓:豆賢靜
題目給的條件是a的秩為2,所以在特徵值為-2的時候,最多只有兩個特徵向量。
14樓:小樂笑了
|λi-a| =
λ-1 -1 -3
0 λ-3 0
-2 -2 λ
= (λ-1)(λ-3)λ-2×3×(λ-3) = (λ-3)(λ+2)(λ-3) = 0
解得λ=-2,3(兩重)
15樓:匿名使用者
求 λ-2 2 0
2 λ-1 2
0 2 λ
行列式值為0的解。
得特徵值為 -2,1,4。
對λ^3-3λ^2-6λ+8進行因式分解。
一般求特徵值時的因式分解步驟都不難, 上式容易看出1是它的乙個零點,提取出λ-1,得到
λ^3-3λ^2-6λ+8=(λ-1)(λ^2-2λ-8)
16樓:匿名使用者
乙個線性方程組的基礎解系是這樣的乙個解向量組:
17樓:徐臨祥
1.首先讓我們來了解一下特徵值和特徵向量的定義,如下:
2.特徵子空間基本定義,如下:
3.特徵多項式的定義,如下:
18樓:蒯懿靖迎夏
此題中,由於是實對稱矩陣,特徵向量互相垂直,所以η·η1=0,所以
x2+x3=0。在滿足該條件的基礎上任取互相垂直的向量選作η2、η3(只要滿足該條件,就屬於
λ=1對應特徵向量的解空間),即可。
對矩陣a,方程
ax=λx(x待求向量,λ待求標量),的解x稱為a的特徵向量,
λ為對應的特徵值,特徵值特徵向量問題是線性代數學習、研究的乙個重要模組。
一般求解辦法:
第一步,求解方程:det(a-λe)=0
得特徵值
λ第二步,求解方程:(a-λe)x=0
得對應特徵向量
x特徵值特徵向量問題的應用比較廣泛:
線性代數領域——化簡矩陣(即矩陣對角化、二次型標準化等),計算矩陣級數
高等數學領域——解線性常係數微分方程組、判斷非線性微分方程組在奇點處的穩定性
物理——矩陣量子力學
……以上僅僅是筆者接觸到的一些應用。
線性代數特徵值求解,線性代數,求特徵值和特徵向量
把行列式得到關於lambda的多項式,然後用vieta定理 線性代數,求特徵值和特徵向量 特徵值 2,3,3,特徵向量 1 0 1 t 3 0 2 t。解 e a 1 1 3 0 3 0 2 2 e a 3 1 3 2 e a 3 2 6 2 3 2 特徵值 2,3,3 對於 2,e a 3 1 3...
線性代數求特徵值和特徵向量,線性代數中怎樣求特徵值和特徵向量?
p就是用斯密特正交化法,求到的單位特徵向量。p 1不用我說了吧?題目沒有,看不出a和b關係,就沒法說p怎麼來的 題目條件裡不是清楚的寫著矩陣p麼 顯然 p,e 0 1 0 1 0 0 1 0 1 0 1 0 0 0 1 0 0 1 r2 r3,交換r1r2 1 0 0 0 1 1 0 1 0 1 0...
求線性代數解答?矩陣的特徵值和特徵向量
因為2階方陣a有2個互異特徵值,所以a與對角矩陣相似。可逆矩陣p為 1,2 對角矩陣為diag 1,2 線性代數中怎樣求特徵值和特徵向量?特徵值與特徵向量是線性代數的核心也是難點,在機器學習演算法中應用十分廣泛。要求線性代數中的特徵值和特徵向量,就要先弄清楚定義 設 a 是 n 階矩陣,如果存在乙個...