Optimizasyon yaparken, Lagrange çarpanı methodu (Joseph Louis Lagrange'dan sonra isimlendirildi), bir fonksiyonun maksimum ve minimum noktalarını bulmak için kullanılan bir yöntemdir.
Örnek olarak, (bkz. resim 1), optimizasyon problemine bakarsak;
- g(x, y) = c denklemi ile sınırlandırılmış
- f(x, y) işlevinin (fonksiyonunun) enbüyük değeri.
Burada f ve g fonksiyonlarının ilk kısmi türevilerinin devamlı olması gerekmektedir. Lagrange çarpanı diye isimlendirdiğimiz yeni bir değişken tanımlıyoruz (λ) ve lagrange işlevimiz aşağıdaki şekilde tanımlanıyor;
burada işleve λ çıkarabilir de eklenebilir de, iki durumda da aynı sonuç elde edilebilir. Eğer f(x0, y0) orijinal sınırlandırılmış problemde f(x, y)'nin maksimum noktasıysa, öyle bir λ0 noktası olacaktır ki ve (x0, lagrange fonksiyonu için y0, λ0) durgun nokta olur (durgun noktalar, Λ fonksiyonunun ilk kısmi türevinin sıfır olduğu noktalardır.). Gelgelelim, original problemin her sabit nokta için bir çözümü olmayabilir. Lagrange methodu, sınırlandırılmış problemde optimizasyon yapabilmek için gerekli işlevi elde etmemizi sağlar. Ayrıca, gerekli koşullar, en küçük (minimum) ve en büyük (maksimum) noktalar için vardır.
Giriş
Calculustaki en popüler problemlerden biri, bir fonksiyonun maksimumunu veya minimumunu bulmaktır ama genellikle zordur, kapalı bir yapı bulmak karışık fonksiyonlar için. Ne zaman bir fonksiyonu mümkün olduğunca küçük veya büyük yapmaya çalıştığımızda karşılaşabiliriz. Lagrange çarpanı methodu güçlü bir araçtır, bu tarz problemleri, açıkça çözme gereksinimi olmadan çözer ve fazladan değişkenleri yok etmek için kullanır.
Aşağıda tanıtılan iki boyutlu problemi ele alalım:
- en büyük olan f(x, y)
- bağımlı olan g(x, y) = c
Sezgisel olarak lagrange çarpanını, maksimum noktasında, f(x, y) fonksiyonu, g = c bu fonksiyonun komşu noklarının yönünde artamaması gerektiğidir. Eğer artıyorsa, g = c yönünde daha büyük bir değere gidilebilir, bu başlangıç noktası aslında maksimum noktası değil demektir.
Bir fonksiyonun eşyükselti eğrileri gözümüşde canlandırabiliriz. Örnek olarak bir f fonksiyonu için f(x, y) = d herhangi bir d değeri için ve eşlik yükselti eğrisi için g(x, y) = c şeklinde yazılabilir.
Farz edelim g=c hattı üstünde yürüdük. f'nin biz yürüdükçe değişmeyen noktalarını bulmak istiyoruz, çünkü bu noktalar maxima olabilirler. İki bu durum oluşabilir; İlki, biz f hattını takip ediyorsak, çünkü f tanımı gereği, f değişmeyecektir biz onun hattının bulunduğu çizgide yürüdükçe ve bu da f ve g'nin yükselti çizgilerinin paralel olduğunu gösterir. İkici olası durum da, f'nin yönünün değişmediği bir noktaya ulaştığımız durumlarda ortaya çıkar.
İlk olası durumu ele alırsak, kontrol etmek için, fonksiyonun gradyanı yükselti çizgisine dik olduğundan dolayı, f ve g'nin yükselti eğrileri paralel olurlar, sadece ve sadece f ve g'nin gradyanı paralel ise. Böylelikle biz öyle (x,y) noktaları istiyoruzki g(x,y)=c olsun ve
- ,
herhangi bir λ için
ayrı ayrı gradyanlardır. Sabit olan λ gereklidir, çünkü iki gradyan vektörleri paralel olduğu halde, gradyan vektörlerinin büyüklükleri genellikle eşit olmazlar ve eksi işareti geleneksellikten geliyor. Aynı zamanda, bu sabit Lagrange çarpanı diye adlandırılmıştır.
Bu method aynı zamanda ikici olası durumuda çözüyor: eğer f herhangi bir yönde değişmiyorsa onun gradyanı sıfırdır ve Lagrange çarpanını sıfır seçerek çözüme ulaşabiliriz g bağımsız bir şekilde.
Bu koşulları tek bir denklemde birleştirmek için, yardımcı bir fonksiyon tanıtacağız,
ve
'nin için çözeceğiz.
Bu Lagrange çarpanının methodudur. Dikkate alın ki , g(x, y) = c demektir.
f'nin zoraki oluşturulmuş uç noktası Lagrangian Λ'nın kritik noktalarıdır, ama Λ'nın lokal uç noktaları değildir.
Lagrangian, Hamiltonian olarak yeniden düzenlenebilir ve bu durumda çözümler lokal minimadır Hamiltonian için. Optimal kontrol teorisinde bu yapılmıştır, Pontryagin's minimum prensibi formunda.
Lagrangian'nın çözümlerinin extrema olması şart olmadığından dolayı zorluklar ortaya çıkarmaktadır, sayısal optimizasyonlar için. Bunlar gradyanın büyüklüğünü hesaplayarak belirlenebilir.
Kaynakça
- ^ Mécanique Analytique sect. IV, 2 vols. Paris, 1811 https://archive.org/details/mcaniqueanalyt01lagr
- ^ Bertsekas, Dimitri P. (1999). Nonlinear Programming (Second bas.). Cambridge, MA.: Athena Scientific. ISBN .
- ^ Vapnyarskii, I.B. (2001), "Lagrange multipliers", Hazewinkel, Michiel (Ed.), Encyclopaedia of Mathematics, Kluwer Academic Publishers, ISBN .
- ^
- Lasdon, Leon S. (1970). Optimization theory for large systems. Macmillan series in operations research. New York: The Macmillan Company. ss. xi+523. MR 0337317.
- Lasdon, Leon S. (2002). Optimization theory for large systems (reprint of the 1970 Macmillan bas.). Mineola, New York: Dover Publications, Inc. ss. xiii+523. MR 1888251.
- ^ Hiriart-Urruty, Jean-Baptiste; (1993). "XII Abstract duality for practitioners". Convex analysis and minimization algorithms, Volume II: Advanced theory and bundle methods. Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences]. 306. Berlin: Springer-Verlag. ss. 136-193 (and Bibliographical comments on pp. 334-335). ISBN . MR 1295240.
- ^ (2001). "Lagrangian relaxation". Michael Jünger and Denis Naddef (Ed.). Computational combinatorial optimization: Papers from the Spring School held in Schloß Dagstuhl, May 15–19, 2000. Lecture Notes in Computer Science. 2241. Berlin: Springer-Verlag. ss. 112-156. doi:10.1007/3-540-45586-8_4. ISBN . MR 1900016.
wikipedia, wiki, viki, vikipedia, oku, kitap, kütüphane, kütübhane, ara, ara bul, bul, herşey, ne arasanız burada,hikayeler, makale, kitaplar, öğren, wiki, bilgi, tarih, yukle, izle, telefon için, turk, türk, türkçe, turkce, nasıl yapılır, ne demek, nasıl, yapmak, yapılır, indir, ücretsiz, ücretsiz indir, bedava, bedava indir, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, resim, müzik, şarkı, film, film, oyun, oyunlar, mobil, cep telefonu, telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, bilgisayar
Optimizasyon yaparken Lagrange carpani methodu Joseph Louis Lagrange dan sonra isimlendirildi bir fonksiyonun maksimum ve minimum noktalarini bulmak icin kullanilan bir yontemdir Resim 1 Kirmizi renkle gosterilen g x y c fonksiyonu kisitlamasi altinda f x y nin enbuyuk degerini bulmak icin x ve y bulunuz Resim 2 Resim 1 in ustten cizilmis hali Kirmizi cizgi g x y c kisitlamasini gostermekte ve mavilerde f x y nin hatlarini gostermektedir Kirmizi cizginin tegetsel bir sekilde mavi hatlarina dokundugu kisim aradigimiz cozumdur d1 gt d2 oldugundan dolayi cozum kirmizi cizginin mavi halkaya teget oldugu nokta f x y fonksiyonunun enbuyuk degerini verir Ornek olarak bkz resim 1 optimizasyon problemine bakarsak g x y c denklemi ile sinirlandirilmis f x y islevinin fonksiyonunun enbuyuk degeri Burada f ve g fonksiyonlarinin ilk kismi turevilerinin devamli olmasi gerekmektedir Lagrange carpani diye isimlendirdigimiz yeni bir degisken tanimliyoruz l ve lagrange islevimiz asagidaki sekilde tanimlaniyor L x y l f x y l g x y c displaystyle Lambda x y lambda f x y lambda cdot Big g x y c Big burada isleve l cikarabilir de eklenebilir de iki durumda da ayni sonuc elde edilebilir Eger f x0 y0 orijinal sinirlandirilmis problemde f x y nin maksimum noktasiysa oyle bir l0 noktasi olacaktir ki ve x0 lagrange fonksiyonu icin y0 l0 durgun nokta olur durgun noktalar L fonksiyonunun ilk kismi turevinin sifir oldugu noktalardir Gelgelelim original problemin her sabit nokta icin bir cozumu olmayabilir Lagrange methodu sinirlandirilmis problemde optimizasyon yapabilmek icin gerekli islevi elde etmemizi saglar Ayrica gerekli kosullar en kucuk minimum ve en buyuk maksimum noktalar icin vardir GirisCalculustaki en populer problemlerden biri bir fonksiyonun maksimumunu veya minimumunu bulmaktir ama genellikle zordur kapali bir yapi bulmak karisik fonksiyonlar icin Ne zaman bir fonksiyonu mumkun oldugunca kucuk veya buyuk yapmaya calistigimizda karsilasabiliriz Lagrange carpani methodu guclu bir aractir bu tarz problemleri acikca cozme gereksinimi olmadan cozer ve fazladan degiskenleri yok etmek icin kullanir Asagida tanitilan iki boyutlu problemi ele alalim en buyuk olan f x y bagimli olan g x y c Sezgisel olarak lagrange carpanini maksimum noktasinda f x y fonksiyonu g c bu fonksiyonun komsu noklarinin yonunde artamamasi gerektigidir Eger artiyorsa g c yonunde daha buyuk bir degere gidilebilir bu baslangic noktasi aslinda maksimum noktasi degil demektir Bir fonksiyonun esyukselti egrileri gozumusde canlandirabiliriz Ornek olarak bir f fonksiyonu icin f x y d herhangi bir d degeri icin ve eslik yukselti egrisi icin g x y c seklinde yazilabilir Farz edelim g c hatti ustunde yuruduk f nin biz yurudukce degismeyen noktalarini bulmak istiyoruz cunku bu noktalar maxima olabilirler Iki bu durum olusabilir Ilki biz f hattini takip ediyorsak cunku f tanimi geregi f degismeyecektir biz onun hattinin bulundugu cizgide yurudukce ve bu da f ve g nin yukselti cizgilerinin paralel oldugunu gosterir Ikici olasi durum da f nin yonunun degismedigi bir noktaya ulastigimiz durumlarda ortaya cikar Ilk olasi durumu ele alirsak kontrol etmek icin fonksiyonun gradyani yukselti cizgisine dik oldugundan dolayi f ve g nin yukselti egrileri paralel olurlar sadece ve sadece f ve g nin gradyani paralel ise Boylelikle biz oyle x y noktalari istiyoruzki g x y c olsun ve x yf l x yg displaystyle nabla x y f lambda nabla x y g herhangi bir l icin x yf f x f y x yg g x g y displaystyle nabla x y f left frac partial f partial x frac partial f partial y right qquad nabla x y g left frac partial g partial x frac partial g partial y right ayri ayri gradyanlardir Sabit olan l gereklidir cunku iki gradyan vektorleri paralel oldugu halde gradyan vektorlerinin buyuklukleri genellikle esit olmazlar ve eksi isareti geleneksellikten geliyor Ayni zamanda bu sabit Lagrange carpani diye adlandirilmistir Bu method ayni zamanda ikici olasi durumuda cozuyor eger f herhangi bir yonde degismiyorsa onun gradyani sifirdir ve Lagrange carpanini sifir secerek cozume ulasabiliriz g bagimsiz bir sekilde Bu kosullari tek bir denklemde birlestirmek icin yardimci bir fonksiyon tanitacagiz L x y l f x y l g x y c displaystyle Lambda x y lambda f x y lambda cdot Big g x y c Big ve x y lL x y l 0 displaystyle nabla x y lambda Lambda x y lambda 0 nin icin cozecegiz Bu Lagrange carpaninin methodudur Dikkate alin ki lL x y l 0 displaystyle nabla lambda Lambda x y lambda 0 g x y c demektir f nin zoraki olusturulmus uc noktasi Lagrangian L nin kritik noktalaridir ama L nin lokal uc noktalari degildir Lagrangian Hamiltonian olarak yeniden duzenlenebilir ve bu durumda cozumler lokal minimadir Hamiltonian icin Optimal kontrol teorisinde bu yapilmistir Pontryagin s minimum prensibi formunda Lagrangian nin cozumlerinin extrema olmasi sart olmadigindan dolayi zorluklar ortaya cikarmaktadir sayisal optimizasyonlar icin Bunlar gradyanin buyuklugunu hesaplayarak belirlenebilir Kaynakca Mecanique Analytique sect IV 2 vols Paris 1811 https archive org details mcaniqueanalyt01lagr Bertsekas Dimitri P 1999 Nonlinear Programming Second bas Cambridge MA Athena Scientific ISBN 1 886529 00 0 Vapnyarskii I B 2001 Lagrange multipliers Hazewinkel Michiel Ed Encyclopaedia of Mathematics Kluwer Academic Publishers ISBN 978 1556080104 Lasdon Leon S 1970 Optimization theory for large systems Macmillan series in operations research New York The Macmillan Company ss xi 523 MR 0337317 Lasdon Leon S 2002 Optimization theory for large systems reprint of the 1970 Macmillan bas Mineola New York Dover Publications Inc ss xiii 523 MR 1888251 Hiriart Urruty Jean Baptiste 1993 XII Abstract duality for practitioners Convex analysis and minimization algorithms Volume II Advanced theory and bundle methods Grundlehren der Mathematischen Wissenschaften Fundamental Principles of Mathematical Sciences 306 Berlin Springer Verlag ss 136 193 and Bibliographical comments on pp 334 335 ISBN 3 540 56852 2 MR 1295240 2001 Lagrangian relaxation Michael Junger and Denis Naddef Ed Computational combinatorial optimization Papers from the Spring School held in Schloss Dagstuhl May 15 19 2000 Lecture Notes in Computer Science 2241 Berlin Springer Verlag ss 112 156 doi 10 1007 3 540 45586 8 4 ISBN 3 540 42877 1 MR 1900016