1. ВВЕДЕНРР•
Целый СЂСЏРґ инженерных задач сводится Рє рассмотрению систем уравнений, имеющих единственное решение лишь РІ том случае, если известно значение некоторого входящего РІ РЅРёС… параметра. Ртот особый параметр называется характеристическим, или собственным, значением системы. РЎ задачами РЅР° собственные значения инженер сталкивается РІ различных ситуациях. Так, для тензоров напряжений собственные значения определяют главные нормальные напряжения, Р° собственными векторами задаются направления, связанные СЃ этими значениями. РџСЂРё динамическом анализе механических систем собственные значения соответствуют собственным частотам колебаний, Р° собственные векторы характеризуют РјРѕРґС‹ этих колебаний. РџСЂРё расчете конструкций собственные значения позволяют определять критические нагрузки, превышение которых РїСЂРёРІРѕРґРёС‚ Рє потере устойчивости.
Выбор наиболее эффективного метода определения собственных значений или собственных векторов для данной инженерной задачи зависит РѕС‚ СЂСЏРґР° факторов, таких, как тип уравнений, число искомых собственных значений Рё РёС… характер. Алгоритмы решения задач РЅР° собственные значения делятся РЅР° РґРІРµ РіСЂСѓРїРїС‹. Ртерационные методы очень СѓРґРѕР±РЅС‹ Рё хорошо приспособлены для определения наименьшего Рё наибольшего собственных значений. Методы преобразований РїРѕРґРѕР±РёСЏ несколько сложней,   зато позволяют определить РІСЃРµ собственные значения Рё собственные векторы.
В данной работе будут рассмотрены наиболее распространенные методы решения задач на собственные значения. Однако сначала приведем некоторые основные сведения из теории матричного и векторного исчислений, на которых базируются методы определения собственных значений.
2. НЕКОТОРЫЕ ОСНОВНЫЕ СВЕДЕНРРЇ, НЕОБХОДРМЫЕ ПРРРЕШЕНРРЗАДАЧ РќРђ СОБСТВЕННЫЕ ЗНАЧЕНРРЇ
В общем виде задача на собственные значения формулируется следующим образом:
AX = lX,
где A — матрица размерности n х n. Требуется найти n скалярных значений l и собственные векторы X, соответствующие каждому из собственных значений.
Основные определения матричного исчисления
1. Матрица A называется симметричной, если
Р°ij = Р°ij, РіРґРµ i, j = 1, 2, . . ., n.
Отсюда следует симметрия относительно диагонали
Р°kk, РіРґРµ k == 1, 2, . . ., n.
Матрица
является примером симметричной.
2. Матрица A называется трехдиагональной, если все ее элементы, кроме элементов главной и примыкающих к ней диагоналей, равны нулю. В общем случае трехдиагональная матрица имеет вид
| | | | | | | | |
* | * | | | | | | 0 | |
* | * | * | | | | | | |
| * | * | * | | | | | |
| . | . | . | . | . | . | | |
| | | | | * | * | * | |
| 0 | | | | | * | * | * |
| | | | | | | * | * |
Важность трехдиагональной формы обусловлена тем, что некоторые методы преобразований подобия позволяют привести произвольную матрицу к этому частному виду.
3. Матрица A называется ортогональной, если
РђРўРђ = Р•,
где Ат—транспонированная матрица A, а Е—единичная матрица. Очевидно, матрица, обратная ортогональной, эквивалентна транспонированной.
4. Матрицы А и В называются подобными, если существует такая несингулярная матрица Р, что справедливо соотношение
Р’ = Р -1РђР .
Основные свойства собственных значений.
1. Р’СЃРµ Рї собственных значений симметричной матрицы размерности РїРҐРї, состоящей РёР· действительных чисел, действительные. Рто полезно помнить, так как матрицы, встречающиеся РІ инженерных расчетах, часто бывают симметричными.
2. Если собственные значения матрицы различны, то ее собственные векторы ортогональны. Совокупность п линейно независимых собственных векторов образует базис рассматриваемого пространства. Следовательно, для совокупности линейно независимых собственных векторов
Xi, РіРґРµ i == 1,. . ., n,
любой произвольный вектор в том же пространстве можно выразить через собственные векторы. Таким образом,
В В В n
Y = S aiXi.
В В i=1
3. Если РґРІРµ матрицы РїРѕРґРѕР±РЅС‹, то РёС… собственные значения совпадают. РР· РїРѕРґРѕР±РёСЏ матриц A Рё Р’ следует, что
Р’ = Р -1РђР .
Так как
РђРҐ = lРҐ,
то              В
Р -1РђРҐ = lР -1РҐ.
Если принять Х == РY, то
Р -1РђР Y = lY,
а                   В
Р’Y == lY.
Таким образом, матрицы A и В не только имеют одинаковые собственные значения, но и их собственные векторы связаны соотношением
РҐ = Р Y.
4. Умножив собственный вектор матрицы на скаляр, получим собственный вектор той же матрицы. Обычно все собственные векторы нормируют, разделив каждый элемент собственного вектора либо на его наибольший элемент, либо на сумму квадратов всех других элементов.
3. РТЕРАЦРОННЫЕ МЕТОДЫ РЕШЕНРРЇ.
Пожалуй, наиболее очевидным способом решения задачи на собственные значения является их определение из системы уравнений
(A - lE) РҐ == 0,
которая имеет ненулевое решение лишь в случае, если det(A - lE)=0. Раскрыв определитель, получим многочлен п-йстепени относительно l, корни которого и будут собственными значениями матрицы. Для определения корней можно воспользоваться любым из методов, описанных в гл. 2. К сожалению, в задачах на собственные значения часто встречаются кратные корни. Так как итерационные методы, в этих случаях не гарантируют получение решения, то для определения собственных значений следует пользоваться другими итерационными методами.
Определение наибольшего собственного значения методом итераций
На рис. 1 показана блок-схема простейшего итерационного метода отыскания наибольшего собственного значения системы
AРҐ = lРҐ.
Процедура начинается СЃ РїСЂРѕР±РЅРѕРіРѕ нормированного вектора X(0). Ртот вектор умножается слева РЅР° матрицу A, Рё результат приравнивается произведению постоянной (собственное значение) Рё нормированному вектору X(0).. Если вектор X(0) совпадает СЃ вектором X(0), то счет прекращается. Р’ противном случае новый нормированный вектор используется РІ качестве РёСЃС…РѕРґРЅРѕРіРѕ Рё РІСЃСЏ процедура повторяется. Если процесс сходится, то постоянный множитель соответствует истинному наибольшему собственному значению, Р° нормированный вектор — соответствующему собственному вектору. Быстрота сходимости этого итерационного процесса зависит РѕС‚ того насколько удачно выбран начальный вектор. Если РѕРЅ близок Рє истинному собственному вектору, то итерации сходятся очень быстро. РќР° быстроту сходимости влияет также Рё отношение величин РґРІСѓС… наибольших собственных значений. Если это отношение близко Рє единице, то сходимость оказывается медленной.
| | | |
| |  |
|
|  |
Рис. 1. Блок-схема алгоритма иитерационного метода решения задач на собственные значения.
Пример 1
Рсследуем трехосное напряженное состояние элемента тела, представленного РЅР° СЂРёСЃСѓРЅРєРµ 2. Матрица напряжений для него имеет РІРёРґ
10 | 5 | 6 | |
5 | 20 | 4 | В * 106 Рќ/Рј2 |
6 | 4 | 30 | |
Рисунок 2.Трехосное напряженное состояние элемента тела.
Если исходить РёР· того, что разрушение произойдет РїСЂРё максимальном напряжении, то необходимо знать величину наибольшего главного напряжения, которое соответствует наибольшему собственному значению матрицы напряжений. Для нахождения этого напряжения воспользуемся методом итерации РќРёР¶Рµ приведена программа для РР’Рњ, СЃ помощью которой итерационная процедура осуществляется РґРѕ тех РїРѕСЂ, РїРѕРєР° разность между собственными значениями, вычисленными РІ последовательных итерациях, РЅРµ станет менее 0,01%. Р’ программе использованы РґРІРµ подпрограммы — GMPRD РёР· пакета программ для научных исследований фирмы IР’Рњ, служащая для перемножения матриц Рё NORML, нормирующая собственные векторы РїРѕ наибольшему элементу.
{**********************************************************************}
Программа определения собственных значений Программа позволяет определить наибольшее главное напряжение (собственное значение) для данного трехосного напряженного состояния. Применяется метод итераций. Счет прекращается, когда изменение собственного значения становится менее 0,01 процента или число итераций превышает 50.
{**********************************************************************}
DIMENSION S(3,3),X(3),R(3)
S(1,1) = 10.E06
S(1,2) = 5.ЕО6
S(2,1) = S(1,2)
S(1,3) =В 6.E06
S(3,1) = S(1,3)
S(2,2) = 20.E06
S(2,3) =В 4.E06
S(3,2) = S(2,3)
S(3,3) = Р—0.Р•06
X(1) = 1.
РҐ(2) = 0.0
РҐ(3) = 0.0
XOLD = 0.0
I = 0
WRITE(6 100)
WRITE(6 101)
WRITE(6 102)
WRITE(6 100)
WRITE(6 104) I,X(1),X(2),X(3)
DO 1 1=1,50
CALL GMPRD (S, X, R, 3, 3, 1)
DO 2 J=1,3
2 X(J) = R(J)
CALL NORML(XLAM,X)
WRITE(6,103) I,XLAM,X(1),X(2),X(3)
IF(ABS((XOLD-XLAM)/XLAM).LE.0.0001) GO TO 3
XOLD = XLAM
3В В WRITE(6,100)
100В FORMAT (1X 54C'-''))
FORMAT (2X вЂITERATION’, Р—РҐ вЂITERATION’, 11X,вЂEIGENVECTOR')
FORMAT (3X 'NUMBER", 6X ,'(N/M**2)’, 5X, вЂX(1)’,
 6X,'X(2)',6X,’X(3)’)
103В FORMAT (1X,I5,7X,E12.5,3F10.5)
104В FORMAT (1X,I5,19X,3F10.5)
STOP
END
{**********************************************************************}
SUBROUTINE NORML(XL,X)
DIMENSION X(3)
{**********************************************************************}
Подпрограмма norml.
Рта подпрограмма находит наибольший РёР· трех элементов собственного вектора Рё нормирует собственный вектор РїРѕ этому наибольшему элементу.
{**********************************************************************}
# FIND THE LARGEST ELEMENT
XBIG = X(1)
IF(X(2).GT.XBIG)XBIG=X(2)
IF(X(3).GT.XBIG)XBIG=X(3)
# Нормирование по XBIG
X(l) = X(1)/XBIG
X(2) = X(2)/XBIG
X(3) = X(3)/XBIG
XL = XBIG
RETURN
END
{**********************************************************************}
Результат работы программы получаем в виде:
 Номер Ртерации | Собственное    Значение ( N / M ** 2 ) |         Собственный вектор |
В X (1) | В В В В X (2) | В В X (3) |
0. | | 1.00000 | 0. | 0. |
| 0.10000 Р• 08 | 1,00000 | 0.50000 | 0.60000 |
| 0.26000Р• 08 | 0.61923 | 0.66923 | 1.00000 |
| 0.36392Р• 08 | 0.42697 | 0.56278 | 1.00000 |
| 0.34813Р• 08 | 0.37583 | 0.49954 | 1.00000 |
| 0.34253Р• 08 | 0.35781 | 0.46331 | 1.00000 |
| 0.34000Р• 08 | 0.34984 | 0.44280 | 1.00000 |
| 0.33870Р• 08 | 0.34580 | 0.43121 | 1.00000 |
| 0.33800Р• 08 | 0.34362 | 0.42466 | 1.00000 |
| 0.33760Р• 08 | 0,34240 | 0.42094 | 1.00000 |
| 0.33738Р• 08 | 0.34171 | 0.41884 | 1.00000 |
| 0.33726Р• 08 | 0.34132 | 0.41765 | 1.00000 |
| 0.33719Р• 08 | 0,34110 | 0.41697 | 1.00000 |
| 0.33714Р• 08 | 0.34093 | 0.41658 | 1.00000 |
| 0.33712Р• 08 | 0.34091 | 0.41636 | 1.00000 |
Отметим, что для достижения требуемой точности потребовалось 14 итераций.
Определение наименьшего собственного значения методом итераций
Р’ некоторых случаях целесообразно искать наименьшее, Р° РЅРµ наибольшее собственное значение. Рто РјРѕР¶РЅРѕ сделать, предварительно СѓРјРЅРѕР¶РёРІ РёСЃС…РѕРґРЅСѓСЋ систему РЅР° матрицу, обратную A:
Рђ-1РђX=lРђ-1X.
Если обе части этого соотношения умножим на 1/l, то получим
1/l РҐ = A-1X.
Ясно, что это уже иная задача на собственное значение, для которой оно равно 1/l, а рассматриваемой матрицей является A-1. Максимум 1/l, достигается при наименьшем l. Таким образом, описанная выше итерационная процедура может быть использована для определения наименьшего собственного значения новой системы.
Определение промежуточных собственных значений методом итераций
Найдя наибольшее собственное значение, РјРѕР¶РЅРѕ определить следующее Р·Р° РЅРёРј РїРѕ величине, заменив РёСЃС…РѕРґРЅСѓСЋ матрицу матрицей, содержащей лишь оставшиеся собственные значения. Рспользуем для этого метод, называемый методом исчерпывания. Для РёСЃС…РѕРґРЅРѕР№ симметричной матрицы A СЃ известным наибольшим собственным значением l1 Рё собственным вектором X1 РјРѕР¶РЅРѕ воспользоваться принципом ортогональности собственных векторов, С‚. Рµ. записать
РҐiT РҐj =0 РїСЂРё ij Рё РҐiT РҐj =1 РїСЂРё i=j.
Если образовать новую матрицу A* в соответствии с формулой
A* =A-l1РҐ1 РҐ1T,
то ее собственные значения и собственные векторы будут связаны соотношением
Рђ*Xi =liXi.
РР· приведенного выше выражения для матрицы A* следует, что
A* РҐi = AРҐi -lРҐ1 РҐ1TXi.
Здесь при i = 1 свойство ортогональности позволяет привести правую часть к виду
A РҐ1 - l1 РҐ1.
Но по определению собственных значений матрицы A это выражение должно равняться нулю. Следовательно, собственное значение l1 матрицы A* равно нулю, а все другие ее собственные значения совпадают с собственными значениями матрицы A. Таким образом, матрица A* имеет собственные значения 0, l2, l3,. . ., ln и соответствующие собственные векторы Х1, Х2, Хз,. . . .... Хn. В результате выполненных преобразований наибольшее собственное значение l1 было изъято, и теперь, чтобы найти следующее наибольшее собственное значение l2, можно применить к матрице A* обычный итерационный метод. Определив l2 и Х2, повторим весь процесс, используя новую матрицу A**, полученную с помощью A*, l2 и Х2. Хотя на первый взгляд кажется, что этот процесс должен быстро привести к цели, он имеет существенные недостатки. При выполнении каждого шага погрешности в определении собственных векторов будут сказываться на точности определения следующего собственного вектора и вызывать накопление ошибок. Поэтому описанный метод вряд ли применим для нахождения более чем трех собственных значений, начиная с наибольшего или наименьшего. Если требуется получить большее число собственных значений, следует пользоваться методами преобразования подобия.
4. ОПРЕДЕЛЕНРР• СОБСТВЕННЫХ ЗНАЧЕНРР™ МЕТОДАМРПРЕОБРАЗОВАНРР™ ПОДОБРРЇ
Метод преобразований подобия применяется с целью получить из исходной матрицы новую с теми же собственными значениями, но более простого вида. Очевидно, самым лучшим упрощением было бы приведение матрицы к чисто диагональному виду, так как в этом случае собственные значения просто соответствовали бы элементам матрицы, стоящим на главной диагонали. К сожалению, большая часть методов преобразования не позволяет этого сделать, и приходится довольствоваться приведением матрицы к трехдиагональной форме.
Метод Якоби
Метод РЇРєРѕР±Рё позволяет привести матрицу Рє диагональному РІРёРґСѓ, последовательно, исключая РІСЃРµ элементы, стоящие РІРЅРµ главной диагонали. Рљ сожалению, приведение Рє строго диагональному РІРёРґСѓ требует бесконечно большого числа шагов, так как образование РЅРѕРІРѕРіРѕ нулевого элемента РЅР° месте РѕРґРЅРѕРіРѕ РёР· элементов матрицы часто ведет Рє появлению ненулевого элемента там, РіРґРµ ранее был нуль. РќР° практике метод РЇРєРѕР±Рё рассматривают, как итерационную процедуру, которая РІ принципе позволяет достаточно близко подойти Рє диагональной форме, чтобы это преобразование РјРѕР¶РЅРѕ было считать законченным. Р’ случае симметричной матрицы A действительных чисел преобразование выполняется СЃ помощью ортогональных матриц, полученных РІ результате вращении РІ действительной плоскости. Вычисления осуществляются следующим образом. РР· РёСЃС…РѕРґРЅРѕР№ матрицы Рђ образуют матрицу A1 == Р 1РђР 1T. РџСЂРё этом ортогональная матрица Р 1 выбирается так, чтобы РІ матрице Рђ1 появился нулевой элемент, стоящий РІРЅРµ главной диагонали. Затем РёР· Рђ1 СЃ помощью второй преобразующей матрицы Р 2, образуют РЅРѕРІСѓСЋ матрицу A2. РџСЂРё этом Р 2, выбирают так, чтобы РІ A2 появился еще РѕРґРёРЅ нулевой внедиагональный элемент. Рту процедуру продолжают, стремясь, чтобы РЅР° каждом шаге РІ нуль обращался наибольший внедиагональный элемент. Преобразующая матрица для осуществления указанной операции РЅР° каждом шаге конструируется следующим образом. Если элемент Р°kl матрицы РђС‚-1 имеет максимальную величину, то Р С‚ соответствует
Pkk = Pll = cos q,
Pkl = - Plk = sin q,
Pii = 1 РїСЂРё i k, l, Pij = 0 РїСЂРё i j.
Матрица Ат будет отличаться от матрицы Am-1 только строками и столбцами с номерами k и l. Чтобы элемент аkl(m) был равен нулю, значение q выбирается так, чтобы
В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В 2 akl(m-1)
tg 2 q = ------------------------- .
                                                      akk(m-1) – all(m-1)
| | | | | | В В В k | | | | | | | В В l | | | | | |
| 1 | | | | | | | | | | | | | | | | | |
| | 1 | | | | | | | | | | | | | | | | |
| | | 1 | | | | | | | | | | | | | | | |
| | | | 1 | | | | | | | | | | | | | | |
| | | | | 1 | | | | | | | | | | | | | |
| | | | | | Cos q | . | . | . | . | . | . | sin q | | | | | k |
| | | | | | | 1 | | | | | | | | | | | |
| | | | | | | | 1 | | | | | | | | | | |
Pm = | | | | | | | | | 1 | | | | | | | | | |
| | | | | | | | | | 1 | | | | | | | | |
| | | | | | | | | | | 1 | | | | | | | |
| | | | | | | | | | | | 1 | | | | | | |
| | | | | | - sin q | | | | | | | Cos q | | | | | l |
| | | | | | | | | | | | | | 1 | | | | |
| | | | | | | | | | | | | | | 1 | | | |
| | | | | | | | | | | | | | | | 1 | | |
| | | | | | | | | | | | | | | | | 1 | |
Значения q заключены в интервале
В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В pВ В В В В В В В В В В В В В p
    - — q
В 4В В В В В В В В В В В В В В В В В В 4
Пример 2
Пусть требуется найти значения всех главных напряжений для напряженного состояния, показанного на рисунке примера 1. Для этого необходимо найти все собственные значения матрицы напряжений. Такая потребность возникает, если конструктор вместо теории разрушения при максимальном нормальном напряжении намерен пользоваться какой-либо другой теорией разрушения. Чтобы найти все собственные значения, обратимся к методу преобразований Якоби, для реализации которого воспользуемся подпрограммой Е1GЕМ из пакета программ для научных исследований фирмы IВМ, предназначенной для симметричных матриц. Так как матрица симметрична, то она содержит лишь шесть различных элементов. Для экономии памяти подпрограмма ЕIGЕМ использует матрицу 3Х3 в компактной форме, при которой требуется только шесть ячеек памяти. Программа для решения данной задачи имеет вид:
{**********************************************************************}
Программа определение всех главных напряжении трехосной матрицы напряжений.
В программе использовано подпрограмма ЕIGЕМ из пакета программ для научных исследований фирмы IВМ
{**********************************************************************}
В DIMENSION SРЎ
# Задание матрицы в компактной форме
В S(1) = 10 Р•06
В S(2) =В 5 Р•06
В S(3) = 20 Р•06
В S(4) =В 6 Р•06
В S(5) =В 4 Р•06
В S(6) = 30 Р•06
# Определение всех собственных значений методом Якоби
В CALL EIGEN(S,R,3,0)
# Печать собственные значении
В WRITE(6,100)
В WRITE(6,101) S(1),S(3),3(6)
100 FORMAT(1РҐ,'РўРќР• EIGENVALUES ARE'')
101 FORMAT(1X,E15.8)
STOP
END
Результат работы программы получаем в виде:
Собственные значения равны
0.33709179E 08
0.19149061E 08
0.71417603E 07
Метод Гивенса для симметричных матриц
Метод Гивенса основан на преобразовании подобия, аналогичном применяемому в методе Якоби. Однако в этом случае алгоритм построен таким образом, что вновь образованные нулевые элементы при всех последующих преобразованиях сохраняются. Поэтому метод Гивенса требует выполнения конечного числа преобразований и по сравнению с методом Якоби связан с меньшими затратами машинного времени. Его единственный недостаток состоит в том, что симметричная матрица приводится не к диагональному, а к трехдиагональному виду. Ниже будет показано, что такая форма матрицы может быть весьма полезной и оправдывает усилия, затраченные на ее получение.
В случае матрицы размерности п х п метод Гивенса требует п — 2 основных шагов, на каждом из которых выполняется ряд преобразований, число которых зависит от числа нулей, которое хотят получить в данном столбце или строке. На k -м шаге обращают в нули элементы, стоящие вне трех диагоналей k-й строки и k -го столбца, сохраняя в то же время нулевые элементы, полученные на предыдущих шагах. Таким образом, перед началом k -го шага преобразованная матрица является трехдиагональной, если ограничиться рассмотрением ее первых k — 1 строк и столбцов. По мере преобразований симметричная матрица размерности 5х5 приобретает следующие формы:
| * | * | * | * | * | |
| * | * | * | * | * | |
A0= | * | * | * | * | * | исходная матрица, |
| * | * | * | * | * | |
| * | * | * | * | * | |
| * | * | 0 | 0 | 0 | |
| * | * | * | * | * | |
A1= | 0 | * | * | * | * | после первого основного шага, |
| 0 | * | * | * | * | состоящего из трех преобразований, |
| 0 | * | * | * | * | |
| * | * | 0 | 0 | 0 | |
| * | * | * | 0 | 0 | |
A2= | 0 | * | * | * | * | после второго основного шага, |
| 0 | 0 | * | * | * | состоящего из двух преобразований, |
| 0 | 0 | * | * | * | |
| * | * | 0 | 0 | 0 | |
| * | * | * | 0 | 0 | после третьего основного шага, |
A3= | 0 | * | * | * | 0 | состоящего из одного преобразования. |
| 0 | 0 | * | * | * | Теперь матрица имеет трехдиагональный вид. |
| 0 | 0 | 0 | * | * | |
На каждом основном шаге изменяются лишь те элементы матрицы аij, которые расположены в ее правой нижней (заштрихованной) части. Таким образом на k-м шаге преобразуется только матрица порядка (п — k + 1), занимающая правый нижний угол исходной матрицы. Ясно, что на каждой следующей стадии выполняется меньшее число преобразований, чем на предыдущей. Всего для приведения матрицы к трехдиагональному виду требуется выполнить (n2 — Зп + 2)/2 преобразований.
Наш опыт применения метода Гивенса показывает, что можно при выполнении одного шага преобразований обратить в нуль сразу все элементы целой строки и столбца, стоящие вне трех диагоналей матрицы. Метод, позволяющий выполнить такое преобразование, предложил Хаусхолдер .
Метод Хаусхолдера для симметричных матриц
Метод Хаусхолдера позволяет привести матрицу Рє трехдиагональному РІРёРґСѓ, выполнив почти РІРґРІРѕРµ меньше вычислений РїРѕ сравнению СЃ РґСЂСѓРіРёРјРё методами. Рто обусловлено тем, что РїСЂРё его применении становятся нулевыми сразу РІСЃРµ элементы строк Рё столбцов, стоящие РІРЅРµ трех диагоналей матрицы. Метод Хаусхолдера позволяет получить требуемый результат быстрее, чем метод Гивенса, так как связан СЃ выполнением меньшего числа, хотя Рё более сложных преобразований. Рто его свойство особенно СЏСЂРєРѕ проявляется применительно Рє большим матрицам. Хотя РІ методе Хаусхолдера вместо плоских вращении используются эрмитовы ортогональные преобразования матриц, трехдиагональная форма матрицы, которую получают этим методом, имеет те Р¶Рµ собственные значения, что Рё трехдиагональная матрица, получаемая методом Гивенса. РџСЂРё использовании метода Хаусхолдера РЅР° Рї — 2 основных шагах выполняются следующие преобразования:
Рђk = Р kAk-1Р k, k=1, 2, ..., Рї-2,
РіРґРµ AРѕ == Рђ.
Каждая преобразующая матрица имеет вид
В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В uk ukT
Pk = E - -------------- ,
В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В 2Kk2В В В В В В В
РіРґРµ
                          ui,k = 0           при i = 1, 2, …, k,
ui,k = ak,i          при i = k+2, …, n,
uk+1,k = ak,k+1 В В В В В В В В В В В± Sk.
Здесь

В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В nВ В В В В В В В В В В В В 1/2
В В В В В В В В В В В В В В В В В В В В В В В В В В Sk =В В В В В SВ a2k,i
В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В В i=k+1
В В В В В В В В В В В В В В В В В В В В В В В В В В 2K2k = S2kВ В± ak, k+1 Sk.
Р’ этих уравнениях берется знак, соответствующий элементу ak,k+1. Рто позволяет сделать значение Рёk+1,kмаксимальным. Отметим, что методами Гивенса Рё Хаусхолдера РјРѕР¶РЅРѕ пользоваться Рё РІ случае несимметричных матриц, РїСЂРёРІРѕРґСЏ РёС…, правда, РЅРµ Рє трехдиагональному, Р° РґСЂСѓРіРѕРјСѓ частному РІРёРґСѓ треугольной матрицы известной как матрица Гессенберга:
* | * | 0 | 0 | 0 | 0 |
* | * | * | 0 | 0 | 0 |
* | * | * | * | 0 | 0 |
* | * | * | * | * | 0 |
* | * | * | * | * | * |
* | * | * | * | * | * |
5. ОПРЕДЕЛЕНРР• СОБСТВЕННЫХ ЗНАЧЕНРР™ РЎРММЕТРРР§РќРћР™ ТРЕХДРАГОНАЛЬНОЙ РњРђРўР РЦЫ
Приведя симметричную матрицу к трехдиагональному виду методом Гивенса или Ха