Bayes teoremi, olasılık kuramı içinde incelenen önemli bir konudur. Bu teorem bir rassal değişken için olasılık dağılımı içinde koşullu olasılıklar ile arasındaki ilişkiyi gösterir. Bu şekli ile Bayes teoremi bütün istatistikçiler için kabul edilir bir ilişkiyi açıklar. Bu kavram için Bayes kuralı veya Bayes savı veya Bayes kanunu adları da kullanılır.
Olasılık teorisinde, B ön koşullu A olayı için olasılık değeri, A ön koşullu B olayı için olasılık değerinden farklıdır. Ancak bu olasılık arasında belirli bir ilişki vardır ve bu ilişkiye, ilk açıklayan istatistikçi İngiliz Thomas Bayes (1702–1761)'in adına atfen Bayes Teoremi denilmektedir.
Bayes teoreminin ifade edilişi
Bayes teoremi bir stokastik süreç sırasında ortaya çıkan bir rastgele olay A ile bir diğer rastgele olay B (eğer B için kaybolmamış olasılık varsa) için koşullu olasılıkları ve marjinal olasılıkları arasındaki ilişkidir, yani
Bayes teoremi formülü içinde bulunan her bir terime özel isimler verilmektedir:
- P(A) terimine A için önsel olasılık veya adı verilir. Bu önseldir, çünkü B olayı hakkında önceden herhangi bir bilgiyi içermemektedir.
- P(A|B) terimi verilmiş B için Anın koşullu olasılığı adını alır.
- P(B|A) terimi verilmiş A için Bnin koşullu olasılığı adını taşır.
- P(B) terimi B olayı için 'önsel' olasılıktır veya Bnin marjinal olasılığıdır ve matematiksel rolü .
Bu şekildeki Bayes teoremini, fazla matematiksel olmadan, sezgiye dayanarak şöyle açıklayabiliriz: Bayes teoremi eğer B gözlemlenmiş ise, A gözlemi hakkındaki inançların ne şekilde güncelleştirilebileceğini ortaya çıkartır.
Farklı Yorumlar
Formel bir teorem olarak Bayes teoremi, olasılık kavramını inceleyen tüm istatistikçi tarafından kabul edilir.
Ancak olasılığı objektif bir değer olarak gören ve relatif çokluluk olarak tayin eden (en:frequentist) ekolüne bağlı olan istatistikçiler ile (veya Bayes tipi) ekolüne bağlı olan istatistikçiler arasında bu teoremin pratikte nasıl kullanılabileceği hakkında büyük bir fikir ayrılığı bulunmaktadır. ekolüne dahil olanlar olasılık değerlerini rastgele olaylarda meydana çıkma çokluluğuna göre veya anakütlenin altsetlerinin tam anakütleye orantısı olarak saptanması gerekeğini kabul etmektedirler. Bunlara göre yeni kanıtlar karşısında olasılık değerinin değişme imkânı yoktur. Bu nedenle ekolü için Bayes teoremi sadece koşulluluklar arasında ilişkiyi gösterir ve bunun pratikte kullanılma gücü küçüktür. Hâlbuki ekolüne göre olasılık gözlemcinin sübjektif belirsizlik ifadesidir. Bu nedenle olasılık değeri sübjektif olup, yeni kanıtlar geldikçe değiştirilebileceğine inanmakta ve böylece Bayes teoremini istatistik bir incelemenin temel taşı saymaktadırlar.
Bayes teoreminin olabilirlilik terimleri ile ifadesi
Bayes teoremi terimleri ile de şöyle ifade edilebilir:
Burada L(A|b) terimi verilmiş sabit b için A'nın olabilirliğidir ve L(A|B)/P(B) orantısına bazen standardize edilmiş olabilirlilik veya normalize edilmiş olabilirlilik adı da verilir. Böylece;
ilişkisini kullanarak Bayes teoremi ortaya çıkartılır. Bu sonucu sözcüklerle şöyle de yazabiliriz:
Daha uygun sözcüklerle
- Sonsal olasılık önsel olasılık ile olabilirlilik çarpımına orantılıdır.
Koşullu olasılıklar kullanılarak matematiksel ispat
Bu teoremi ispat etmek için koşullu olasılık tanımından başlanır. B olayı bilinirse A olayının olasılığı şöyle verilir:
Aynı şekilde A olayı verilmiş ise B olayının olasılığı şudur:
Bu iki denklem yeniden düzenlenip birbirlerine birleştirilirse,
ifadesi bulunur. Bu bazen olasılıklar için çarpım kuralı olarak anılmaktadır.
Her iki taraf da P(B) (eğer sıfır değilse) ile bölünürse, ortaya çıkan şu ifade Bayes teoremidir:
Bayes teoreminin değişik şekilleri
Bayes teoremi çok kere daha ek kavramlar eklenerek, sanki daha süslü olarak, ifade de edilir. Bunun için önce şu ifade kullanılır:
Burada AC (çok kere A olmayan olarak ifade edilen) A olayının olur. Bu Bayes teoremi formülüne konulunca Bayes teoremi için yeni alternatif bir formül elde edilir:
Daha genel olarak, {Ai} olay uzayının bir oluşturduğu göz önüne alınca, bu bölüntü içinde bulunan herhangi bir Ai için şu ifade elde edilir:
Toplam olasılık yasası maddesine de bakınız.
Bahis oranı ve olabilirlilik orantısı şeklinde Bayes teoremi
Bayes teoremi çok daha düzgünce bir orantısı olan λ ile göreceli olasılıklar oranı veya olan O terimleri ile şöyle ifade edilir:
Burada
B verilimişse A olayının göreceli olasılıklar oranı veya bahis oranı ;
A kendi bahis oranı ve
olabilirlik orantısı olur.
Olasılık yoğunluk fonksiyonları ile Bayes teoremi
Bayes teoreminin sürekli olasılık dağılımlarına uygun olan bir şekli de vardır. Olasılık yoğunluk fonksiyonları tıpatıp olasılık olmadıkları için bu şeklin ispatı biraz daha karmaşıktır. Bu şekilde Bayes theoremi bir limit işlemin geliştirilmesi sonucu ile ortaya çıkarlar.
Buna benzer olan bir diğer ifade de toplam olasılık yasası için şöyle ortaya çıkartılabilir:
Aynı genel aralıklı hâl gibi bu formülde bulunan parçalara da özel isimler verilmiştir:
- f(x, y), X ve Y için bileşik dağılımdır;
- f(x|y), Y=y verilmiş iken X in sonsal dağılımıdır;
- f(y|x) = L(x|y), (x in bir fonksiyonu olarak) Y = y verilmiş ise Xin olabilirlilik fonksiyonudur;
- f(x), Xin marjinal dağılımı ve ve Xin önsel dağılımı olur;
- f(y), Yin marjinal dağılımı olur.
Dikkat edilirse burada biraz alışılmış kavramına kendimizi kaptırdık. Burada her bir terim için f notasyonu kullanıldı ama gerçekte bunların hepsi değişik birer fonksiyonlardır. Burada verilen hali ile fonksiyonların birbirinden değişik oldukları ancak içlerinde bulunan terimlerin farklı olmaları ile anlaşılabilmektedir.
Soyut Bayes teoremi
Olasılık uzayında verilmiş olan iki olasılık ölçümleri ve bir sigma-cebiri olsun. Bu halde -ölçülmeli rassal değişken için soyut Bayes teorem şöyle ifade edilir:
- .
Bu formülasyon şekli Kalman filtreleme tekniğinde bulmak için kullanılır. Bu şekil ayrıca içinde değişmesi tekniklerinde uygulanır.
Bayes teoreminin kapsamının genişletilmesi
İkiden daha fazla değişken kapsayan problemler için de Bayes teoremine benzer teoremler oluşturulabilir. Örneğin
Bu Bayes teoreminin ve koşullu olasılık tanımlamasının üzerine birkaç işlem yaparak ortaya çıkarılabilir:
Bu çalışmalar için uygulanacak genel strateji ortak olasılık için parçalama ile çalışmaya başlayıp ilgimizi çekmek istemediğimiz değişkenleri entregrasyon ile marginalize etmektir. Uygulanan parçalama şekline göre, bazı entegrallerin 1e eşit olup parçalama ifadesinden düşmeleri sağlanma imkânı bulunabilir; eğer bu özellik ve imkân kullanılabilirse gereken hesaplamalar çok önemli şekilde azaltılabilir. Örneğin, bir için verilen spesifikasyon dolayısıyla, (geri kalan değişkenler verilmiş olurlarsa) herhangi bir değişken için koşullu olasılık, birkaç değişkenli ortak olasılık dağılımının faktorize edilmesi ile belirlenir ve bu nedenle sonucun özellikle basit bir form alması sağlanmış olur. ( maddesine bakınız.)
Örnekler
Örnek #1: Koşullu olasılıklar
İki tabak dolusu bisküvi düşünülsün; tabak #1 içinde 10 tane çikolatalı bisküvi ve 30 tane sade bisküvi bulunduğu kabul edilsin. Tabak #2 içinde ise her iki tip bisküviden 20şer tane olduğu bilinsin. Evin küçük çocuğu bir tabağı rastgele seçip bu tabaktan rastgele bir bisküvi seçip alsın. Çocuğun bir tabağı diğerine ve bir tip bisküviyi diğerine tercih etmekte olduğuna dair elimizde hiçbir gösterge bulunmamaktadır. Çocuğun seçtiği bisküvinin sade olduğu görülsün. Çocuğun bu sade bisküviyi tabak #1 den seçmiş olmasının olasılığının ne olacağı problemi burada incelenmektedir.
Sezgi ile, tabak #1de sade bisküvi sayısının çikolatalı bisküvi sayısına göre daha fazla olduğunu göz önüne alınırsak incelenen olasılığın %50'den daha fazla olacağı hemen algılanır. Bu soruya cevap Bayes teoremi kullanarak kesin olarak verilebilir.
Önce soruyu değiştirip Bayes teoremi uygulanabilecek şekle sokmak gerekmektedir: Çocuğun bir sade bisküvi seçmiş olduğu bilinmektedir; o halde bu koşulla birlikte tabak #1den seçim yapması olasılığı ne olacaktır?
Böylece Bayes teoremi formülüne uymak için A olayı çocuğun tabak #1den seçim yapması; B olayı ise çocuğun bir sade bisküvi seçmesi olsun. İstenilen olasılık böylece Pr(A|B) olacaktır ve bunu hesaplamak için şu olasılıkların bulunması gerekir:
- Pr(A) veya hiçbir diğer bilgi olmadan çocuğun tabak #1'den seçim yapması olasılığı;
İki tabak arasında tercih olmayıp seçimin eşit olasılığı olduğu kabul edilmektedir.
- Pr(B) veya hiçbir diğer bilgi olmadan çocuğun bir sade bisküvi seçmesi olasılığı: Diğer bir ifade ile, bu çocuğun her bir tabaktan bir sade bisküvi seçme olasılığıdır. Bu olasılık, önce her iki tabaktan ayrı ayrı olarak seçilen bir tabaktan bir sade bisküvi seçme olasılığı ile bu tabağı seçme olasılığının birbirine çarpılması ve sonra bu iki çarpımın toplanması suretiyle elde edilir. Tabaklarda olan sade bisküvinin sayısının toplama orantısından bilinmektedir ki tabak #1'den bir sade bisküvi seçme olasılığı (30/40=) 0,75; tabak #2'den sade bisküvi seçme olasılığı (20/40=) 0,5 olur. Her iki tabaktan seçme olasılığı ise her tabak aynı şekilde uygulama gördüğü için 0,50 olur. Böylece bu problemin tümü için bir sade bisküvi seçme olasılığı 0.75×0.5 + 0.5×0.5 = 0.625 olarak bulunur.
- Pr(B|A) veya çocuğun tabak #1'den seçim yaptığı bilirken bir sade bisküvi seçmesi.: Bu 0,75 olarak bilinmektedir çünkü tabak #1'deki toplam 40 bisküviden 30'u sade bisküvidir.
Şimdi bu açıklanan tüm olasılık değerleri Bayes teoremi formülüne konulabilir:
Böylece çocuğun sade bisküvi seçimi bilindiğine göre tabak #1'den alma olasılığı %60'tır ve sezgimize göre seçtiğimiz %50'den daha büyüktür.
Ortaya çıkma tabloları ve orantısal çokluklar
Koşullu olasılıkları hesaplarken her bir bağımsız değişken için her mümkün sonucun ortaya çıkma sayısını veya her sonucun gösteren basit bir tablo hazırlamak konuyu daha iyi anlamaya yardımcı olabilir. Bisküvi örneği için bu yöntemin kullanışını gösteren tablolar şöyle verilmiştir:
Her tabakta bulunan değişik tip bisküvi sayısı | Her tabakta bulunan değişik tip bisküvi oranları | |||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
|
Sağdaki tablo, sol taraftaki tablo içindeki her bir hücre elemanını toplam bisküvi sayısı (yani 80) ile bölerek elde edilmiştir.
Örnek #2: Yeni ilaç sınamaları
Yeni bir uyuşturucu madde testinin değerlendirilmesinde de Bayes teoremi yardımcı olabilir. Bu testin bir uyuşturucu madde sınamasında %99 sonuç verdiğini kabul edelim; yani bu test bir uyuşturucu madde kullanan için %99 defa doğru olarak pozitif sonuç verecek ve uyuşturucu madde kullanmayan için negatif sonucu da %99 defa verecektir. Bu olasılıkların yüksek oluşu bu testin nispeten hatasız olduğu sonuç çıkarabilir; ancak Bayes teoremini kullanırsak bu düşüncemizin pek doğru olmadığı ortaya çıkacaktır.
Bir iş yeri çalışanlarını eroin kullanıp kullanmadıklarını sınamak istediğini ve çalışanlardan yüzde yarımının (%0,5) eroin kullandığını kabul edelim. Aradığımız netice, bir çalışan için bir test yapıldıktan ve pozitif sonuç alındıktan sonra bu çalışanın gerçekte eroin kullanıcısı olma olasılığının ne olduğunu bulmaktır.
"E" bir eroin kullanıcı olma olayı ve "N" eroin kullanıcı olmama olayı olarak gösterilsin. "+" test, pozitif sonuç göstermesi olayını belirtsin. Bu halde şunları bilmemiz gerekmektedir:
- Pr(E) veya başka bir bilgi bulunmadan çalışanın gerçekte eroin kullanıcı olması olasılığı
olsun; çalışanlardan yüzde yarımı (%0.5) eroin kullanıcısı olduğuna göre bu olasılık 0.005 olarak ifade edilebilinir.
- Pr(N) çalışanın gerçekte eroin kullanıcı olmaması olasılığı olsun. Bu 1-Pr(E) veya 0.995 olur.
- Pr(+|E) : Çalışanın bir eroin kullanıcısı olması bilindiği halde testin pozitif sonuç vermesinin olasılığı. Test %99 kesin sonuç verdiğine göre bu olasılık 0.99 olur.
- Pr(+) : Diğer bilgi olmadan testin pozitif sonuç vermesi olasılığıdır. Bu sonuç bulmak için önce eroin kullanması halinde testin pozitif verme olasılığı (ki bu %99 x %0,5 = %0,495) artı eroin kullanıcısı olmama halinde testin hatalı pozitif sonuç vermesi olasılığı (0,01 x 0,995= %0.995); yani 0.0149 %1.49 olur.
Bu bilgileri sıraladıktan sonra sınamada pozitif sonuç vermiş bir çalışanın gerçekte eroin kullanıcısı olması olasılığı şöyle bulunur:
Test yüksek oranda "+" sonuç vermesine rağmen, genel olarak eroin kullanımı çok düşük olduğundan, pozitif testli bir çalışanın gerçekte eroin kullanıcısı olması olasılığı %33 olur. Test için konu alınan olay ne kadar nadir görülmekte ise testteki pozitif sonuçların olmaları olasılığı o kadar artacaktır. Bu uyuşturucu madde sınamasında testin tekrarlamanın neden gerektirdiğini de açıklamaktadır. Aynı örnek (AIDS) testi ve diğer testler için de geçerlidir.
Örnek #3: Bayesci çıkarım analizi
Bayes Teoreminin uygulanmaları için çok defa konusunun altında bulunan felsefeyi, yani belirsizlik ve inançların dereceler ıskalası bulunduğu hakkındaki açıklamaları, kabul ederiz. Bu örneğinden başka işlemlere tabi tutulmuş örnekler Bayesci çıkarım analizinde de bulunabilir.
Bir değişken olan A'nin marjinal olasılık dağılımını veya daha basite önsel olarak tanımlayalım. B "verisi" verilmiş olduğu halde A için koşullu dağılıma veya sonsal adı veriyoruz.
Bir referandum yapılması halini ele alalım. Bu referandumda bir soru sorulduğu ve sadece buna "evet" veya "hayır" olarak verildiğini düşünelim. Bu referandum sonucu için büyük bir ana kütlede evet yanıtına oy veren kısmının toplama oranının r olduğunu kabullenelim. (İstatistiksel bağımsızlık sağlamak nedeni ile seçtikten sonra geri koyulma usulünü kullanarak) n sayıda seçmeni ile örneklem olarak seçelim; elde edilen bu örneklemde bulunan evet yanıtına oy veren seçmen sayısının m olduğunu düşünelim. Düşünelim ki bir gözlemde bu parametreler n = 10 seçmen ve m = 7 evet oyu veren seçmen olsun. r için olasılık dağılım fonksiyonunu Bayes teoremini kullanarak şöyle bulabiliriz:
Bundan görülür ki f(r) önsel olasılık dağılım fonksiyondan ve L(r) = f(m = 7|r, n=10) olabilirlilik fonksiyonundan f(r|n=10, m=7) sonsal olasılık fonksiyonunu hesaplayabiliriz.
f(r) önsel olasılık dağılımı, hiçbir gözlem yapılmadığı veya bulunmadığı halde r nin dağılımı hakkında bilgilerimizi özetler. Geçici olarak, bu halde r için önsel dağılım fonksiyonunun [0,1] aralığında bulunan bir tekdüze dağılım olduğunu kabul edelim; yani f(r) = 1. Eğer arka planda bulunan diğer bilgileri daha önceden biliyorsak bu önseli bunlara dayanarak değiştirebiliriz ama şu ilk bakışta bütün sonuçların aynı olasılıkta olduğu geçici olarak kabul edilmektedir.
Rastgele örnekleme hakkında yaptığımız varsayım dolayısıyla, seçmenleri bu örnekleme ile seçme, bir küp problemi, (bir küp veya benzeri bir kap içinde bulunan çeşitli renkli toplardan birini seçme problemi) ile aynıdır. Bu tip problem için olabilirlilik fonksiyonu L(r) = P(m=7|r, n=10,) olur ve bu 10 çekiş sınamasında 7 başarı bulmanın binom dağılımı olur:
Bir önsel olduğu için bu olabilirlilik değişmeye maruz kalabilecektir - daha karmaşık on varsayımlar daha karmaşık olabilirlilik fonksiyonlar ortaya çıkaracaktır. Şu halde basit varsayımlarımızı olduğu gibi kabul edelim ve şu normalize etme faktörünü hesaplayalım:
Bu halde r için sonsal dağılım şu olur:
burada r değerleri 0 ve 1 e de eşit olarak 0 ile 1 arasındadır.
Bir diğer sorun olarak seçmenlerin yarısından çoğunun "evet" oyu vermesinin olasılığının ne olabileceği ile ilgilenebiliriz. Bu halde seçmenlerin yarısından çoğunun "evet" oyu vermesinin önsel dağılımı (tekdüze dağılımın simetrik olması nedeniyle) (1/2)ye eşit olur. Buna karşılık, seçmenlerin yarısından daha fazlasının evet oyu vermesinin sonsal olasılığı (yani oylamadan önceki yapılan anket sonuçları) 10 seçmenden 7'sinin "evet" oyu vereceğini bize açıklamıştır; yani
veya bu sonsal olasılık yaklaşık %89 olarak hesaplanır.
Örnek #4: Monty Hall problemi
Bir TV oyun programında üç tane (kırmızı, yeşil ve mavi boyalı) kapalı kapı gösterilmekte ve bu kapılardan birisinin arkasında bir armağan bulunmaktadır. Kırmızı kapıyı seçtiğimizi düşünelim; ama bu kapı program sunucunun bir faaliyet göstermesini bitirmeden açılmamaktadır. Program sunucusu hangi kapı arkasında armağan bulunduğunu bilmektedir; ama ona verilen direktife göre ne arkasında armağan bulunan kapıyı ne de seçtiğimiz kapıyı açabilir. Yeşil kapıyı açar ve arkasında bir armağan bulunmadığını gösterir ve şu soruyu yarışmacıya sorar: "İlk tercihiniz olan kırmızı kapı hakkında fikrinizi değiştirmek ister misiniz?" İncelenecek sorun şudur: "Armağanın mavi veya kırmızı kapılar arkasında bulunma olasılıkları nedir?"
Yarışmanın ana sonuçları olan değişik renkli kapılar arkasında armağan bulunmasını şöyle ifade edelim: :Ak, Ay ve Am. İlk olarak her bir kapı arkasında armağan bulunması birbirine eşit olasılık olduğu kabul edilir yani olur. Yine düşünelim kırmızı kapıyı yarışmacı seçmiş durumdadır. Sunucunun yeşil kapıyı açması olayına B olayı adını verelim. Arkasında armağan bulunan kapıyı bilmeseydi bu olay için olasılık %50 olacaktır.
- Eğer gerçekte armağan kırmızı kapı arkasında ise, sunucu ya yeşil ya da mavi kapıyı açmakta serbest olacaktır. Bu halde
- Eğer gerçekte armağan yeşil kapı arkasında ise, sunucu mavi kapıyı açacaktır. Yani .
- Eğer gerçekte armağan mavi kapı arkasında ise, sunucu yeşil kapıyı açacaktır. Yani .
Böylece
Dikkatle incelenirse bunun P(B) değerine bağlı olduğu görülecektir. Bir an armağanın kırmızı kapı arkasında olmadığını farz edelim; o halde sunucunun yeşil kapıyı açma olasılığı çok yüksek olacaktır - diyelim %90. Bundan dolayı, eğer sunucu başka kapı açmaya zorlanmadıkça, yeşil kapıyı açmayı tercih edecektir. Böylece, B olayı olasılığı 1/3 * 1 + 1/3 * 0 + 1/3 * 9/10 = 19/30 olur.
Bu nedenle sunucunun yeşil kapıyı açması bize çok az bilgi vermektedir - zaten bu seçimi yapmak zorundadır. Pr(Am) olasılığı 1/2'nin çok az üstündedir.
Buna karşılık, armağanın kırmızı kapı arkasında olduğunu farz edersek; o halde sunucunun yeşil kapı açma olasılığı çok küçük olacaktır - diyelim %10. Bu demektir ki özellikle zorlanmadıkça sunucu nerede ise hiçbir halde yeşil kapıyı açmayacaktır.
O halde B olasılığı 1/3 * 1 + 1/3 * 0 + 1/3 * 1/10 = 11/30 olur.
Bu halde, gerçekte sunucunun yeşil kapıyı açması bize çok önemli bilgi vermektedir. Armağan nerede ise hiç şüphesiz olarak mavi kapı arkasında bulunmaktadır. Eğer mavi kapı arkasında değilse, sunucu çok muhtemelen mavi kapıyı açacaktı.
Birkaç tarihsel açıklama
Bayes Teoremi, (modern terimlerle) bir binom dağılımin parametresinin olasılık dağılımının hesaplanmasını incelemekte olan, İngiliz istatistikçi, felsefeci, bakan ve rahip Thomas Bayes (1702–1761) tarafından bulunmuştur. Bu çalışma Bayes yaşamakta iken yayınlanmamış; ancak Bayes'in ölümünden sonra 1763'te yakın arkadaşı olan "Richard Price" tarafından yayına hazırlanıp bastırılmıştır.
Bayes'in çalışmalarından haberdar olmayan Fransız matematikçi Pierre-Simon Laplace aynı sonuçları aynen sırf kendi gayretiyle yeniden çıkartıp genişleterek 1774'te yazdığı bir makalede yayınlamıştır.
Bir Amerikan istatistik profesörü (Stigler 1983), yaptığı bir araştırma sonucunda, Bayes Teoremi'nin, Bayes'ten bir süre önce Nicholas Saunderson tarafından bulunduğunu öne sürmüştür.
İçsel kaynaklar
Kaynakça
- ^ A.Papoulis (1984), Probability, Random Variables, and Stochastic Processes, 2. edisyon. New York: McGraw-Hill. Kısım 7.3
Yazının değişik versiyonları
- Thomas Bayes (1763), "An Essay towards solving a Problem in the Doctrine of Chances. By the late Rev. Mr. Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S.", , Giving Some Account of the Present Undertakings, Studies and Labours of the Ingenious in Many Considerable Parts of the World 53:370–418.
- Thomas Bayes (1763/1958) "Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances", 45:296–315. (Bayes'in eserinin modern notasyona değiştirilmiş şekli)
- Thomas Bayes . (Bayes'in eserinin orijinal notasyonlu şekli)
Yorumlar
- (1958) "Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances", Biometrika 45:293–295. (Biyografik açıklamalar)
- Daniel Covarrubias. . (Bayes'in eseri üzerinde bir anahatlar taslağı ve açıklamalar)
- Stephen M. Stigler (1982). "Thomas Bayes' Bayesian Inference," Journal of the Royal Statistical Society, Series A, 145:250–258. (Stigler, Bayes'in eserinin değişik bir şekilde yorumlanmasını önermektedir. Okunması tavsiye edilir. )
- (1865). A History of the Mathematical Theory of Probability from the time of Pascal to that of Laplace, Macmillan. Reprinted 1949, 1956 by Chelsea and 2001 by Thoemmes.
Ek kaynaklar
- Pierre-Simon Laplace (1774), "Mémoire sur la Probabilité des Causes par les Événements", Savants Étranges 6:621–656; also Œuvres 8:27–65.
- Pierre-Simon Laplace (1774/1986), "Memoir on the Probability of the Causes of Events", Statistical Science 1(3):364–378.
- Stephen M. Stigler (1986), "Laplace's 1774 memoir on inverse probability", Statistical Science 1(3):359–378.
- Stephen M. Stigler (1983), "Who Discovered Bayes' Theorem?" The American Statistician 37(4):290–296.
- Jeff Miller, et al., Earliest Known Uses of Some of the Words of Mathematics (B)17 Ocak 1999 tarihinde Wayback Machine sitesinde .. (Aydınlatıcı bilgi sağlamakta. Okunması tavsiye edilir.)
- Athanasios Papoulis (1984), Probability, Random Variables, and Stochastic Processes, second edition. New York: McGraw-Hill.
- James Joyce (2003), "Bayes' Theorem"28 Nisan 2019 tarihinde Wayback Machine sitesinde ., .
- The on-line textbook: Information Theory, Inference, and Learning Algorithms6 Şubat 2015 tarihinde Wayback Machine sitesinde ., by Bayes teoreminin enformasyon kurami ve makina-ogrenimi konularinda kullanilmasi icin bir guncel tanitma saglamaktadir.
- Stanford Encyclopedia of Philosophy: Bayes' Theorem28 Nisan 2019 tarihinde Wayback Machine sitesinde . Bayes teoremine çok kapsamlı bir giriş sağlar.
- Eliezer S. Yudkowsky (2003), ""
- Oksford Üniversitesi psikoloji öğrencileri için hazırlanmış olasılık ve Bayes teoremi hakkında ders notları21 Ağustos 2008 tarihinde Wayback Machine sitesinde .
wikipedia, wiki, viki, vikipedia, oku, kitap, kütüphane, kütübhane, ara, ara bul, bul, herşey, ne arasanız burada,hikayeler, makale, kitaplar, öğren, wiki, bilgi, tarih, yukle, izle, telefon için, turk, türk, türkçe, turkce, nasıl yapılır, ne demek, nasıl, yapmak, yapılır, indir, ücretsiz, ücretsiz indir, bedava, bedava indir, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, resim, müzik, şarkı, film, film, oyun, oyunlar, mobil, cep telefonu, telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, bilgisayar
Bayes teoremi olasilik kurami icinde incelenen onemli bir konudur Bu teorem bir rassal degisken icin olasilik dagilimi icinde kosullu olasiliklar ile arasindaki iliskiyi gosterir Bu sekli ile Bayes teoremi butun istatistikciler icin kabul edilir bir iliskiyi aciklar Bu kavram icin Bayes kurali veya Bayes savi veya Bayes kanunu adlari da kullanilir Olasilik teorisinde B on kosullu A olayi icin olasilik degeri A on kosullu B olayi icin olasilik degerinden farklidir Ancak bu olasilik arasinda belirli bir iliski vardir ve bu iliskiye ilk aciklayan istatistikci Ingiliz Thomas Bayes 1702 1761 in adina atfen Bayes Teoremi denilmektedir Bayes teoreminin ifade edilisiBayes teoremi bir stokastik surec sirasinda ortaya cikan bir rastgele olay A ile bir diger rastgele olay B eger B icin kaybolmamis olasilik varsa icin kosullu olasiliklari ve marjinal olasiliklari arasindaki iliskidir yani P A B P B A P A P B displaystyle P A B frac P B A P A P B Bayes teoremi formulu icinde bulunan her bir terime ozel isimler verilmektedir P A terimine A icin onsel olasilik veya adi verilir Bu onseldir cunku B olayi hakkinda onceden herhangi bir bilgiyi icermemektedir P A B terimi verilmis B icin Anin kosullu olasiligi adini alir P B A terimi verilmis A icin Bnin kosullu olasiligi adini tasir P B terimi B olayi icin onsel olasiliktir veya Bnin marjinal olasiligidir ve matematiksel rolu Bu sekildeki Bayes teoremini fazla matematiksel olmadan sezgiye dayanarak soyle aciklayabiliriz Bayes teoremi eger B gozlemlenmis ise A gozlemi hakkindaki inanclarin ne sekilde guncellestirilebilecegini ortaya cikartir Farkli YorumlarFormel bir teorem olarak Bayes teoremi olasilik kavramini inceleyen tum istatistikci tarafindan kabul edilir Ancak olasiligi objektif bir deger olarak goren ve relatif cokluluk olarak tayin eden en frequentist ekolune bagli olan istatistikciler ile veya Bayes tipi ekolune bagli olan istatistikciler arasinda bu teoremin pratikte nasil kullanilabilecegi hakkinda buyuk bir fikir ayriligi bulunmaktadir ekolune dahil olanlar olasilik degerlerini rastgele olaylarda meydana cikma cokluluguna gore veya anakutlenin altsetlerinin tam anakutleye orantisi olarak saptanmasi gerekegini kabul etmektedirler Bunlara gore yeni kanitlar karsisinda olasilik degerinin degisme imkani yoktur Bu nedenle ekolu icin Bayes teoremi sadece kosulluluklar arasinda iliskiyi gosterir ve bunun pratikte kullanilma gucu kucuktur Halbuki ekolune gore olasilik gozlemcinin subjektif belirsizlik ifadesidir Bu nedenle olasilik degeri subjektif olup yeni kanitlar geldikce degistirilebilecegine inanmakta ve boylece Bayes teoremini istatistik bir incelemenin temel tasi saymaktadirlar Bayes teoreminin olabilirlilik terimleri ile ifadesiBayes teoremi terimleri ile de soyle ifade edilebilir P A B L A b P A displaystyle P A B propto L A b P A Burada L A b terimi verilmis sabit b icin A nin olabilirligidir ve L A B P B orantisina bazen standardize edilmis olabilirlilik veya normalize edilmis olabilirlilik adi da verilir Boylece P B A L A B displaystyle P B A propto L A B iliskisini kullanarak Bayes teoremi ortaya cikartilir Bu sonucu sozcuklerle soyle de yazabiliriz sonsal normalize olabilirlilik onsel displaystyle mbox sonsal mbox normalize olabilirlilik times mbox onsel dd Daha uygun sozcuklerle Sonsal olasilik onsel olasilik ile olabilirlilik carpimina orantilidir dd Kosullu olasiliklar kullanilarak matematiksel ispatBu teoremi ispat etmek icin kosullu olasilik tanimindan baslanir B olayi bilinirse A olayinin olasiligi soyle verilir P A B P A B P B displaystyle P A B frac P A cap B P B Ayni sekilde A olayi verilmis ise B olayinin olasiligi sudur P B A P A B P A displaystyle P B A frac P A cap B P A Bu iki denklem yeniden duzenlenip birbirlerine birlestirilirse P A B P B P A B P B A P A displaystyle P A B P B P A cap B P B A P A ifadesi bulunur Bu bazen olasiliklar icin carpim kurali olarak anilmaktadir Her iki taraf da P B eger sifir degilse ile bolunurse ortaya cikan su ifade Bayes teoremidir P A B P A B P B P B A P A P B displaystyle P A B frac P A cap B P B frac P B A P A P B Bayes teoreminin degisik sekilleriBayes teoremi cok kere daha ek kavramlar eklenerek sanki daha suslu olarak ifade de edilir Bunun icin once su ifade kullanilir P B P A B P AC B P B A P A P B AC P AC displaystyle P B P A cap B P A C cap B P B A P A P B A C P A C Burada AC cok kere A olmayan olarak ifade edilen A olayinin olur Bu Bayes teoremi formulune konulunca Bayes teoremi icin yeni alternatif bir formul elde edilir P A B P B A P A P B A P A P B AC P AC displaystyle P A B frac P B A P A P B A P A P B A C P A C Daha genel olarak Ai olay uzayinin bir olusturdugu goz onune alinca bu boluntu icinde bulunan herhangi bir Ai icin su ifade elde edilir P Ai B P B Ai P Ai jP B Aj P Aj displaystyle P A i B frac P B A i P A i sum j P B A j P A j Toplam olasilik yasasi maddesine de bakiniz Bahis orani ve olabilirlilik orantisi seklinde Bayes teoremi Bayes teoremi cok daha duzgunce bir orantisi olan l ile goreceli olasiliklar orani veya olan O terimleri ile soyle ifade edilir O A B O A L A B displaystyle O A B O A cdot Lambda A B Burada O A B P A B P AC B displaystyle O A B frac P A B P A C B B verilimisse A olayinin goreceli olasiliklar orani veya bahis orani O A P A P AC displaystyle O A frac P A P A C A kendi bahis orani ve L A B L A B L AC B P B A P B AC displaystyle Lambda A B frac L A B L A C B frac P B A P B A C olabilirlik orantisi olur Olasilik yogunluk fonksiyonlari ile Bayes teoremi Bayes teoreminin surekli olasilik dagilimlarina uygun olan bir sekli de vardir Olasilik yogunluk fonksiyonlari tipatip olasilik olmadiklari icin bu seklin ispati biraz daha karmasiktir Bu sekilde Bayes theoremi bir limit islemin gelistirilmesi sonucu ile ortaya cikarlar f x y f x y f y f y x f x f y displaystyle f x y frac f x y f y frac f y x f x f y Buna benzer olan bir diger ifade de toplam olasilik yasasi icin soyle ortaya cikartilabilir f x y f y x f x f y x f x dx displaystyle f x y frac f y x f x int infty infty f y x f x dx Ayni genel aralikli hal gibi bu formulde bulunan parcalara da ozel isimler verilmistir f x y X ve Y icin bilesik dagilimdir f x y Y y verilmis iken X in sonsal dagilimidir f y x L x y x in bir fonksiyonu olarak Y y verilmis ise Xin olabilirlilik fonksiyonudur f x Xin marjinal dagilimi ve ve Xin onsel dagilimi olur f y Yin marjinal dagilimi olur Dikkat edilirse burada biraz alisilmis kavramina kendimizi kaptirdik Burada her bir terim icin f notasyonu kullanildi ama gercekte bunlarin hepsi degisik birer fonksiyonlardir Burada verilen hali ile fonksiyonlarin birbirinden degisik olduklari ancak iclerinde bulunan terimlerin farkli olmalari ile anlasilabilmektedir Soyut Bayes teoremi Olasilik uzayinda verilmis olan iki olasilik olcumleri P Q displaystyle P sim Q W F displaystyle Omega mathcal F ve bir sigma cebiri G F displaystyle mathcal G subset mathcal F olsun Bu halde F displaystyle mathcal F olculmeli rassal degisken X displaystyle X icin soyut Bayes teorem soyle ifade edilir EP X G EQ dPdQX G EQ dPdQ G displaystyle E P X mathcal G frac E Q frac dP dQ X mathcal G E Q frac dP dQ mathcal G Bu formulasyon sekli Kalman filtreleme tekniginde bulmak icin kullanilir Bu sekil ayrica icinde degismesi tekniklerinde uygulanir Bayes teoreminin kapsaminin genisletilmesi Ikiden daha fazla degisken kapsayan problemler icin de Bayes teoremine benzer teoremler olusturulabilir Ornegin P A B C P A P B A P C A B P B P C B displaystyle P A B C frac P A P B A P C A B P B P C B Bu Bayes teoreminin ve kosullu olasilik tanimlamasinin uzerine birkac islem yaparak ortaya cikarilabilir P A B C P A B C P B C P A B C P B P C B displaystyle P A B C frac P A B C P B C frac P A B C P B P C B P C A B P A B P B P C B P A P B A P C A B P B P C B displaystyle frac P C A B P A B P B P C B frac P A P B A P C A B P B P C B Bu calismalar icin uygulanacak genel strateji ortak olasilik icin parcalama ile calismaya baslayip ilgimizi cekmek istemedigimiz degiskenleri entregrasyon ile marginalize etmektir Uygulanan parcalama sekline gore bazi entegrallerin 1e esit olup parcalama ifadesinden dusmeleri saglanma imkani bulunabilir eger bu ozellik ve imkan kullanilabilirse gereken hesaplamalar cok onemli sekilde azaltilabilir Ornegin bir icin verilen spesifikasyon dolayisiyla geri kalan degiskenler verilmis olurlarsa herhangi bir degisken icin kosullu olasilik birkac degiskenli ortak olasilik dagiliminin faktorize edilmesi ile belirlenir ve bu nedenle sonucun ozellikle basit bir form almasi saglanmis olur maddesine bakiniz OrneklerOrnek 1 Kosullu olasiliklar Iki tabak dolusu biskuvi dusunulsun tabak 1 icinde 10 tane cikolatali biskuvi ve 30 tane sade biskuvi bulundugu kabul edilsin Tabak 2 icinde ise her iki tip biskuviden 20ser tane oldugu bilinsin Evin kucuk cocugu bir tabagi rastgele secip bu tabaktan rastgele bir biskuvi secip alsin Cocugun bir tabagi digerine ve bir tip biskuviyi digerine tercih etmekte olduguna dair elimizde hicbir gosterge bulunmamaktadir Cocugun sectigi biskuvinin sade oldugu gorulsun Cocugun bu sade biskuviyi tabak 1 den secmis olmasinin olasiliginin ne olacagi problemi burada incelenmektedir Sezgi ile tabak 1de sade biskuvi sayisinin cikolatali biskuvi sayisina gore daha fazla oldugunu goz onune alinirsak incelenen olasiligin 50 den daha fazla olacagi hemen algilanir Bu soruya cevap Bayes teoremi kullanarak kesin olarak verilebilir Once soruyu degistirip Bayes teoremi uygulanabilecek sekle sokmak gerekmektedir Cocugun bir sade biskuvi secmis oldugu bilinmektedir o halde bu kosulla birlikte tabak 1den secim yapmasi olasiligi ne olacaktir Boylece Bayes teoremi formulune uymak icin A olayi cocugun tabak 1den secim yapmasi B olayi ise cocugun bir sade biskuvi secmesi olsun Istenilen olasilik boylece Pr A B olacaktir ve bunu hesaplamak icin su olasiliklarin bulunmasi gerekir Pr A veya hicbir diger bilgi olmadan cocugun tabak 1 den secim yapmasi olasiligi Iki tabak arasinda tercih olmayip secimin esit olasiligi oldugu kabul edilmektedir Pr B veya hicbir diger bilgi olmadan cocugun bir sade biskuvi secmesi olasiligi Diger bir ifade ile bu cocugun her bir tabaktan bir sade biskuvi secme olasiligidir Bu olasilik once her iki tabaktan ayri ayri olarak secilen bir tabaktan bir sade biskuvi secme olasiligi ile bu tabagi secme olasiliginin birbirine carpilmasi ve sonra bu iki carpimin toplanmasi suretiyle elde edilir Tabaklarda olan sade biskuvinin sayisinin toplama orantisindan bilinmektedir ki tabak 1 den bir sade biskuvi secme olasiligi 30 40 0 75 tabak 2 den sade biskuvi secme olasiligi 20 40 0 5 olur Her iki tabaktan secme olasiligi ise her tabak ayni sekilde uygulama gordugu icin 0 50 olur Boylece bu problemin tumu icin bir sade biskuvi secme olasiligi 0 75 0 5 0 5 0 5 0 625 olarak bulunur Pr B A veya cocugun tabak 1 den secim yaptigi bilirken bir sade biskuvi secmesi Bu 0 75 olarak bilinmektedir cunku tabak 1 deki toplam 40 biskuviden 30 u sade biskuvidir Simdi bu aciklanan tum olasilik degerleri Bayes teoremi formulune konulabilir P A B P B A P A P B 0 75 0 50 625 0 6 displaystyle P A B frac P B A P A P B frac 0 75 times 0 5 0 625 0 6 Boylece cocugun sade biskuvi secimi bilindigine gore tabak 1 den alma olasiligi 60 tir ve sezgimize gore sectigimiz 50 den daha buyuktur Ortaya cikma tablolari ve orantisal cokluklar Kosullu olasiliklari hesaplarken her bir bagimsiz degisken icin her mumkun sonucun ortaya cikma sayisini veya her sonucun gosteren basit bir tablo hazirlamak konuyu daha iyi anlamaya yardimci olabilir Biskuvi ornegi icin bu yontemin kullanisini gosteren tablolar soyle verilmistir Her tabakta bulunan degisik tip biskuvi sayisi Her tabakta bulunan degisik tip biskuvi oranlariTabak 1 Tabak 2 ToplamlarCikolatali 10 20 30Sade 30 20 50Toplam 40 40 80 Tabak 1 Tabak 2 ToplamlarCikolatali 0 125 0 250 0 375Sade 0 375 0 250 0 625Toplam 0 500 0 500 1 000 Sagdaki tablo sol taraftaki tablo icindeki her bir hucre elemanini toplam biskuvi sayisi yani 80 ile bolerek elde edilmistir Ornek 2 Yeni ilac sinamalari Yeni bir uyusturucu madde testinin degerlendirilmesinde de Bayes teoremi yardimci olabilir Bu testin bir uyusturucu madde sinamasinda 99 sonuc verdigini kabul edelim yani bu test bir uyusturucu madde kullanan icin 99 defa dogru olarak pozitif sonuc verecek ve uyusturucu madde kullanmayan icin negatif sonucu da 99 defa verecektir Bu olasiliklarin yuksek olusu bu testin nispeten hatasiz oldugu sonuc cikarabilir ancak Bayes teoremini kullanirsak bu dusuncemizin pek dogru olmadigi ortaya cikacaktir Bir is yeri calisanlarini eroin kullanip kullanmadiklarini sinamak istedigini ve calisanlardan yuzde yariminin 0 5 eroin kullandigini kabul edelim Aradigimiz netice bir calisan icin bir test yapildiktan ve pozitif sonuc alindiktan sonra bu calisanin gercekte eroin kullanicisi olma olasiliginin ne oldugunu bulmaktir E bir eroin kullanici olma olayi ve N eroin kullanici olmama olayi olarak gosterilsin test pozitif sonuc gostermesi olayini belirtsin Bu halde sunlari bilmemiz gerekmektedir Pr E veya baska bir bilgi bulunmadan calisanin gercekte eroin kullanici olmasi olasiligi olsun calisanlardan yuzde yarimi 0 5 eroin kullanicisi olduguna gore bu olasilik 0 005 olarak ifade edilebilinir Pr N calisanin gercekte eroin kullanici olmamasi olasiligi olsun Bu 1 Pr E veya 0 995 olur Pr E Calisanin bir eroin kullanicisi olmasi bilindigi halde testin pozitif sonuc vermesinin olasiligi Test 99 kesin sonuc verdigine gore bu olasilik 0 99 olur Pr Diger bilgi olmadan testin pozitif sonuc vermesi olasiligidir Bu sonuc bulmak icin once eroin kullanmasi halinde testin pozitif verme olasiligi ki bu 99 x 0 5 0 495 arti eroin kullanicisi olmama halinde testin hatali pozitif sonuc vermesi olasiligi 0 01 x 0 995 0 995 yani 0 0149 1 49 olur Bu bilgileri siraladiktan sonra sinamada pozitif sonuc vermis bir calisanin gercekte eroin kullanicisi olmasi olasiligi soyle bulunur P E P E P E P P E P E P E P E P N P N 0 99 0 0050 99 0 005 0 01 0 995 0 3322 displaystyle begin aligned P E amp frac P E P E P amp frac P E P E P E P E P N P N amp frac 0 99 times 0 005 0 99 times 0 005 0 01 times 0 995 amp 0 3322 end aligned Test yuksek oranda sonuc vermesine ragmen genel olarak eroin kullanimi cok dusuk oldugundan pozitif testli bir calisanin gercekte eroin kullanicisi olmasi olasiligi 33 olur Test icin konu alinan olay ne kadar nadir gorulmekte ise testteki pozitif sonuclarin olmalari olasiligi o kadar artacaktir Bu uyusturucu madde sinamasinda testin tekrarlamanin neden gerektirdigini de aciklamaktadir Ayni ornek AIDS testi ve diger testler icin de gecerlidir Ornek 3 Bayesci cikarim analizi Bayes Teoreminin uygulanmalari icin cok defa konusunun altinda bulunan felsefeyi yani belirsizlik ve inanclarin dereceler iskalasi bulundugu hakkindaki aciklamalari kabul ederiz Bu orneginden baska islemlere tabi tutulmus ornekler Bayesci cikarim analizinde de bulunabilir Bir degisken olan A nin marjinal olasilik dagilimini veya daha basite onsel olarak tanimlayalim B verisi verilmis oldugu halde A icin kosullu dagilima veya sonsal adi veriyoruz Bir referandum yapilmasi halini ele alalim Bu referandumda bir soru soruldugu ve sadece buna evet veya hayir olarak verildigini dusunelim Bu referandum sonucu icin buyuk bir ana kutlede evet yanitina oy veren kisminin toplama oraninin r oldugunu kabullenelim Istatistiksel bagimsizlik saglamak nedeni ile sectikten sonra geri koyulma usulunu kullanarak n sayida secmeni ile orneklem olarak secelim elde edilen bu orneklemde bulunan evet yanitina oy veren secmen sayisinin m oldugunu dusunelim Dusunelim ki bir gozlemde bu parametreler n 10 secmen ve m 7 evet oyu veren secmen olsun r icin olasilik dagilim fonksiyonunu Bayes teoremini kullanarak soyle bulabiliriz f r n 10 m 7 f m 7 r n 10 f r 01f m 7 r n 10 f r dr displaystyle f r n 10 m 7 frac f m 7 r n 10 f r int 0 1 f m 7 r n 10 f r dr Bundan gorulur ki f r onsel olasilik dagilim fonksiyondan ve L r f m 7 r n 10 olabilirlilik fonksiyonundan f r n 10 m 7 sonsal olasilik fonksiyonunu hesaplayabiliriz f r onsel olasilik dagilimi hicbir gozlem yapilmadigi veya bulunmadigi halde r nin dagilimi hakkinda bilgilerimizi ozetler Gecici olarak bu halde r icin onsel dagilim fonksiyonunun 0 1 araliginda bulunan bir tekduze dagilim oldugunu kabul edelim yani f r 1 Eger arka planda bulunan diger bilgileri daha onceden biliyorsak bu onseli bunlara dayanarak degistirebiliriz ama su ilk bakista butun sonuclarin ayni olasilikta oldugu gecici olarak kabul edilmektedir Rastgele ornekleme hakkinda yaptigimiz varsayim dolayisiyla secmenleri bu ornekleme ile secme bir kup problemi bir kup veya benzeri bir kap icinde bulunan cesitli renkli toplardan birini secme problemi ile aynidir Bu tip problem icin olabilirlilik fonksiyonu L r P m 7 r n 10 olur ve bu 10 cekis sinamasinda 7 basari bulmanin binom dagilimi olur P m 7 r n 10 107 r7 1 r 3 displaystyle P m 7 r n 10 10 choose 7 r 7 1 r 3 Bir onsel oldugu icin bu olabilirlilik degismeye maruz kalabilecektir daha karmasik on varsayimlar daha karmasik olabilirlilik fonksiyonlar ortaya cikaracaktir Su halde basit varsayimlarimizi oldugu gibi kabul edelim ve su normalize etme faktorunu hesaplayalim 01P m 7 r n 10 f r dr 01 107 r7 1 r 31dr 107 11320 displaystyle int 0 1 P m 7 r n 10 f r dr int 0 1 10 choose 7 r 7 1 r 3 1 dr 10 choose 7 frac 1 1320 Bu halde r icin sonsal dagilim su olur f r n 10 m 7 107 r7 1 r 31 107 11320 1320r7 1 r 3 displaystyle f r n 10 m 7 frac 10 choose 7 r 7 1 r 3 1 10 choose 7 frac 1 1320 1320 r 7 1 r 3 burada r degerleri 0 ve 1 e de esit olarak 0 ile 1 arasindadir Bir diger sorun olarak secmenlerin yarisindan cogunun evet oyu vermesinin olasiliginin ne olabilecegi ile ilgilenebiliriz Bu halde secmenlerin yarisindan cogunun evet oyu vermesinin onsel dagilimi tekduze dagilimin simetrik olmasi nedeniyle 1 2 ye esit olur Buna karsilik secmenlerin yarisindan daha fazlasinin evet oyu vermesinin sonsal olasiligi yani oylamadan onceki yapilan anket sonuclari 10 secmenden 7 sinin evet oyu verecegini bize aciklamistir yani 1320 1 21r7 1 r 3dr 0 887 displaystyle 1320 int 1 2 1 r 7 1 r 3 dr approx 0 887 veya bu sonsal olasilik yaklasik 89 olarak hesaplanir Ornek 4 Monty Hall problemi Bir TV oyun programinda uc tane kirmizi yesil ve mavi boyali kapali kapi gosterilmekte ve bu kapilardan birisinin arkasinda bir armagan bulunmaktadir Kirmizi kapiyi sectigimizi dusunelim ama bu kapi program sunucunun bir faaliyet gostermesini bitirmeden acilmamaktadir Program sunucusu hangi kapi arkasinda armagan bulundugunu bilmektedir ama ona verilen direktife gore ne arkasinda armagan bulunan kapiyi ne de sectigimiz kapiyi acabilir Yesil kapiyi acar ve arkasinda bir armagan bulunmadigini gosterir ve su soruyu yarismaciya sorar Ilk tercihiniz olan kirmizi kapi hakkinda fikrinizi degistirmek ister misiniz Incelenecek sorun sudur Armaganin mavi veya kirmizi kapilar arkasinda bulunma olasiliklari nedir Yarismanin ana sonuclari olan degisik renkli kapilar arkasinda armagan bulunmasini soyle ifade edelim Ak Ay ve Am Ilk olarak her bir kapi arkasinda armagan bulunmasi birbirine esit olasilik oldugu kabul edilir yani P Ak P Ay P Am 13 displaystyle P A k P A y P A m frac 1 3 olur Yine dusunelim kirmizi kapiyi yarismaci secmis durumdadir Sunucunun yesil kapiyi acmasi olayina B olayi adini verelim Arkasinda armagan bulunan kapiyi bilmeseydi bu olay icin olasilik 50 olacaktir Eger gercekte armagan kirmizi kapi arkasinda ise sunucu ya yesil ya da mavi kapiyi acmakta serbest olacaktir Bu halde P B Ak 1 2 displaystyle P B A k 1 2 Eger gercekte armagan yesil kapi arkasinda ise sunucu mavi kapiyi acacaktir Yani P B Ay 0 displaystyle P B A y 0 Eger gercekte armagan mavi kapi arkasinda ise sunucu yesil kapiyi acacaktir Yani P B Am 1 displaystyle P B A m 1 Boylece P Ak B P B Ak P Ak P B 121312 13P Ay B P B Ay P Ay P B 01312 0P Am B P B Am P Am P B 11312 23 displaystyle begin matrix P A k B amp frac P B A k P A k P B amp frac frac 1 2 frac 1 3 frac 1 2 amp frac 1 3 P A y B amp frac P B A y P A y P B amp frac 0 frac 1 3 frac 1 2 amp 0 P A m B amp frac P B A m P A m P B amp frac 1 frac 1 3 frac 1 2 amp frac 2 3 end matrix Dikkatle incelenirse bunun P B degerine bagli oldugu gorulecektir Bir an armaganin kirmizi kapi arkasinda olmadigini farz edelim o halde sunucunun yesil kapiyi acma olasiligi cok yuksek olacaktir diyelim 90 Bundan dolayi eger sunucu baska kapi acmaya zorlanmadikca yesil kapiyi acmayi tercih edecektir Boylece B olayi olasiligi 1 3 1 1 3 0 1 3 9 10 19 30 olur P Ak B P B Ak P Ak P B 910131930 919P Ay B P B Ay P Ay P B 0131930 0P Am B P B Am P Am P B 1131930 1019 displaystyle begin matrix P A k B amp frac P B A k P A k P B amp frac frac 9 10 frac 1 3 frac 19 30 amp frac 9 19 P A y B amp frac P B A y P A y P B amp frac 0 frac 1 3 frac 19 30 amp 0 P A m B amp frac P B A m P A m P B amp frac 1 frac 1 3 frac 19 30 amp frac 10 19 end matrix Bu nedenle sunucunun yesil kapiyi acmasi bize cok az bilgi vermektedir zaten bu secimi yapmak zorundadir Pr Am olasiligi 1 2 nin cok az ustundedir Buna karsilik armaganin kirmizi kapi arkasinda oldugunu farz edersek o halde sunucunun yesil kapi acma olasiligi cok kucuk olacaktir diyelim 10 Bu demektir ki ozellikle zorlanmadikca sunucu nerede ise hicbir halde yesil kapiyi acmayacaktir O halde B olasiligi 1 3 1 1 3 0 1 3 1 10 11 30 olur P Ak B P B Ak P Ak P B 110131130 111P Ay B P B Ay P Ay P B 0131130 0P Am B P B Am P Am P B 1131130 1011 displaystyle begin matrix P A k B amp frac P B A k P A k P B amp frac frac 1 10 frac 1 3 frac 11 30 amp frac 1 11 P A y B amp frac P B A y P A y P B amp frac 0 frac 1 3 frac 11 30 amp 0 P A m B amp frac P B A m P A m P B amp frac 1 frac 1 3 frac 11 30 amp frac 10 11 end matrix Bu halde gercekte sunucunun yesil kapiyi acmasi bize cok onemli bilgi vermektedir Armagan nerede ise hic suphesiz olarak mavi kapi arkasinda bulunmaktadir Eger mavi kapi arkasinda degilse sunucu cok muhtemelen mavi kapiyi acacakti Birkac tarihsel aciklamaBayes Teoremi modern terimlerle bir binom dagilimin parametresinin olasilik dagiliminin hesaplanmasini incelemekte olan Ingiliz istatistikci felsefeci bakan ve rahip Thomas Bayes 1702 1761 tarafindan bulunmustur Bu calisma Bayes yasamakta iken yayinlanmamis ancak Bayes in olumunden sonra 1763 te yakin arkadasi olan Richard Price tarafindan yayina hazirlanip bastirilmistir Bayes in calismalarindan haberdar olmayan Fransiz matematikci Pierre Simon Laplace ayni sonuclari aynen sirf kendi gayretiyle yeniden cikartip genisleterek 1774 te yazdigi bir makalede yayinlamistir Bir Amerikan istatistik profesoru Stigler 1983 yaptigi bir arastirma sonucunda Bayes Teoremi nin Bayes ten bir sure once Nicholas Saunderson tarafindan bulundugunu one surmustur Icsel kaynaklarBayesci cikarim Bayes agi Thomas Bayes Monty Hall problemi Ockham in Usturasi Onsel olasilik Naif Bayes tipi siniflayiciKaynakca A Papoulis 1984 Probability Random Variables and Stochastic Processes 2 edisyon New York McGraw Hill Kisim 7 3 Yazinin degisik versiyonlari Thomas Bayes 1763 An Essay towards solving a Problem in the Doctrine of Chances By the late Rev Mr Bayes F R S communicated by Mr Price in a letter to John Canton A M F R S Giving Some Account of the Present Undertakings Studies and Labours of the Ingenious in Many Considerable Parts of the World 53 370 418 Thomas Bayes 1763 1958 Studies in the History of Probability and Statistics IX Thomas Bayes Essay Towards Solving a Problem in the Doctrine of Chances 45 296 315 Bayes in eserinin modern notasyona degistirilmis sekli Thomas Bayes Bayes in eserinin orijinal notasyonlu sekli Yorumlar 1958 Studies in the History of Probability and Statistics IX Thomas Bayes Essay Towards Solving a Problem in the Doctrine of Chances Biometrika 45 293 295 Biyografik aciklamalar Daniel Covarrubias Bayes in eseri uzerinde bir anahatlar taslagi ve aciklamalar Stephen M Stigler 1982 Thomas Bayes Bayesian Inference Journal of the Royal Statistical Society Series A 145 250 258 Stigler Bayes in eserinin degisik bir sekilde yorumlanmasini onermektedir Okunmasi tavsiye edilir 1865 A History of the Mathematical Theory of Probability from the time of Pascal to that of Laplace Macmillan Reprinted 1949 1956 by Chelsea and 2001 by Thoemmes Ek kaynaklar Pierre Simon Laplace 1774 Memoire sur la Probabilite des Causes par les Evenements Savants Etranges 6 621 656 also Œuvres 8 27 65 Pierre Simon Laplace 1774 1986 Memoir on the Probability of the Causes of Events Statistical Science 1 3 364 378 Stephen M Stigler 1986 Laplace s 1774 memoir on inverse probability Statistical Science 1 3 359 378 Stephen M Stigler 1983 Who Discovered Bayes Theorem The American Statistician 37 4 290 296 Jeff Miller et al Earliest Known Uses of Some of the Words of Mathematics B 17 Ocak 1999 tarihinde Wayback Machine sitesinde Aydinlatici bilgi saglamakta Okunmasi tavsiye edilir Athanasios Papoulis 1984 Probability Random Variables and Stochastic Processes second edition New York McGraw Hill James Joyce 2003 Bayes Theorem 28 Nisan 2019 tarihinde Wayback Machine sitesinde The on line textbook Information Theory Inference and Learning Algorithms6 Subat 2015 tarihinde Wayback Machine sitesinde by Bayes teoreminin enformasyon kurami ve makina ogrenimi konularinda kullanilmasi icin bir guncel tanitma saglamaktadir Stanford Encyclopedia of Philosophy Bayes Theorem28 Nisan 2019 tarihinde Wayback Machine sitesinde Bayes teoremine cok kapsamli bir giris saglar Eliezer S Yudkowsky 2003 Oksford Universitesi psikoloji ogrencileri icin hazirlanmis olasilik ve Bayes teoremi hakkinda ders notlari21 Agustos 2008 tarihinde Wayback Machine sitesinde