Sor metod

testwiki sitesinden
Gezinti kısmına atla Arama kısmına atla

Şablon:Düzenle Successive Over-Relaxation (SOR) lineer denklem sistemlerini çözmek ve sonuca daha hızlı yakınsamak için sayısal lineer cebirde kullanılan bir çeşit Gauss-Seidel metodudur. Daha yavaş yakınsamalar içinse benzer bir metot olan iterative metot kullanılır.

David M. Young, Jr. ve H.Frankel tarafından 1950 yılında lineer sistemlerini otomatik olarak bilgisayar yardımıyla bulunması amacıyla eş zamanlı olarak ortaya konulmuştur.Over-Relaxation Young ve Frankel öncesinde de kullanılıyordu. Lewis Fry Richardson ve R. V. Southwell tarafından ayrı ayrı bulunan metotlar bunlara örnek verilebilir.Ama, bu metotlar beşeri hesaplamalar için tasarlanmıştı ve onları bilgisayar programlamada uygulanamaz hale getiren bazı uzmanlıklar gereklidir. David M. Young, Jr. tezinde metotlara bu yönden yaklaşmıştır.[1]

Formülleme

Bilinmeyen x olmak üzere, n bilinmeyenli bir kare matris veriliyor:

A𝐱=𝐛

Olmak üzere:

A=[a11a12a1na21a22a2nan1an2ann],𝐱=[x1x2xn],𝐛=[b1b2bn].

A 3 farklı kısma ayrılabilir.Bunlar: Köşegen Kısmı = D, and Alt üçgensel ve üst üçgensel kısım = L ve U:

A=D+L+U,
D=[a11000a22000ann],L=[000a2100an1an20],U=[0a12a1n00a2n000].

Lineer denklem sistemini tekrar yazarsak,

(D+ωL)𝐱=ω𝐛[ωU+(ω1)D]𝐱

ω > 1'den olmak üzere, w relaxation factordür.

successive over-relaxation bir iterative metot olarak sağ tarafta bulunan eski x değerini kullanarak sol taraftaki yeni x değerini bulmaya yardımcı olur.Analitik olarak, tekrar gösterirsek;
𝐱(k+1)=(D+ωL)1(ω𝐛[ωU+(ω1)D]𝐱(k))=Lw𝐱(k)+𝐜.

Fakat, (D+ωL) üçgensel formundan yararlanılarak, x(k+1)'in elementleri forward substitution yöntemiyle bulunabilir.

xi(k+1)=(1ω)xi(k)+ωaii(bij<iaijxj(k+1)j>iaijxj(k)),i=1,2,,n.

Relaxation faktörün ω seçilimi o kadar da kolay değildir ve katsayılar matrisinin özelliklerine bağlıdır.1947'de, eğer Ostrowski A matrisini simetrik ve pozitif tanımlamış olursa ρ(Lω)<1 için 0<ω<2 olduğu kanıtlanmış olur. Böylece iterasyon işleminin yakınsaması doğru olur, fakat biz yakınsamadan daha çok, hızlı yakınsama konusuyla ilgileniyoruz.

Algoritma

Sadece bir depolama vektörüne ihtiyaç duyulur ve endeksleme vektörü ihmal edilir çünkü bu algoritmayla hesaplanan değerler, elementlerin üzerine yazılır:

Girdiler: A, b, ω
Çıktılar: ϕ

ϕ başlangıç tahmini olarak alırsak
tekrar et yakınsayana kadar.

for i from 1 until n do
σ0
for j from 1 until n do
if ji then
σσ+aijϕj
end if
end (j-loop)
ϕi(1ω)ϕi+ωaii(biσ)
end (i-loop)
yakınsamaya ulaşınca kontrol et.

end (repeat)

Not:
(1ω)ϕi+ωaii(biσ) işlemi ϕi+ω(biσaiiϕi) şeklinde yazılır, Bu da her dış for döngüsünün iterasyonu için bir çarpım işleminden kurtarır.

Simetrik successive over-relaxation

A simetrik matrisinin bir versiyonudur,

U=LT,

Bu da Symmetric Successive Over-Relaxation veya (SSOR) adını alır.

P=(Dω+L)12ωD1(Dω+U),

iterasyon metodu da şu şekildedir;

𝐱k+1=𝐱kγkP1(A𝐱k𝐛), k0.

SOR ve SSOR metotları David M. Young, Jr.. tarafından bulunmuştur.

diğer uygulama alanları

Şablon:Ana Iterasyon metodunda da benzer teknik kullanılabilir. Eğer orijinal iterasyon aşağıdaki şu forma sahipse,

xn+1=f(xn)

değiştirilmiş versiyonunda ise aşağıdaki form kullanılır,

xn+1SOR=(1ω)xnSOR+ωf(xnSOR).

Lineer denklem sistemlerini çözmek için yukarıda gösterilen formül,Şablon:Mvar’in tam vektör olması koşuluyla gerçekleşir. Eğer bu formül hesaplama da kullanılırsa, bir dahaki vektörün hesaplanması şu şekilde olur;

𝐱(k+1)=(1ω)𝐱(k)+ωL*1(𝐛U𝐱(k)).
  Yavaş yaklaşım işlemini hızlandırmak için ω>1 değeri kullanılır eğer değer ω<1  aralığındaysa ?  değeri sapma iterasyon işleminin yakınsamasında veya overshooting işlemindeki yakınsamanın hızlanmasında kullanılır.

Yakınsama işlemlerinin davranışlarına bağlı kalarak uyarlanılabilir relaxation parametresini ω bulunabilecek çeşitli metotlar vardır. Bulunan parametreler sadece süper-lineer yakınsamalarda bazı problemler için kullanılır, geri kalan içinse değiştirilmesi gerekir.

Ayrıca bakınız

Notlar

Şablon:Kaynakça

Kaynakça

Dış bağlantılar