Önceki olasılıklar teriminin geçtiği sayfalara bakın. Önceki olasılık

Yalnızca kesin gerçeklere ve bu gerçeklerden kesin çıkarımlara dayanan akıl yürütmeye katı akıl yürütme denir. Karar vermek için belirsiz gerçeklerin kullanılmasının gerektiği durumlarda, katı akıl yürütme uygun olmaz. Bu nedenle, herhangi bir uzman sistemin en büyük güçlü yanlarından biri, belirsizlik koşulları altında insan uzmanların yaptığı kadar başarılı bir şekilde akıl yürütme yeteneğidir. Böyle bir akıl yürütme kesin değildir. Varlığımız hakkında güvenle konuşabiliriz bulanık mantık.

Belirsizlik Sonuç olarak bulanık mantık, karar verme için yeterli bilginin eksikliği olarak düşünülebilir. Belirsizlik sorun haline gelir çünkü en iyi çözümün yaratılmasını engelleyebilir, hatta kötü çözümün bulunmasına bile neden olabilir. Gerçek zamanlı olarak bulunan yüksek kaliteli bir çözümün, hesaplanması uzun zaman alan daha iyi bir çözümden genellikle daha kabul edilebilir olduğu dikkate alınmalıdır. Örneğin, ek testlerin yapılabilmesi için tedavinin geciktirilmesi, hastanın tedaviyi alamadan ölmesiyle sonuçlanabilir.

Belirsizliğin nedeni bilgilerde çeşitli hataların bulunmasıdır. Basitleştirilmiş sınıflandırma Bu hatalar aşağıdaki türlere ayrılarak sunulabilir:

  • bazı bilgilerin farklı şekillerde yorumlanabilmesinden kaynaklanan bilgi belirsizliği;
  • belirli verilerin eksikliği nedeniyle eksik bilgi;
  • gerçek duruma uymayan verilerin kullanılması nedeniyle bilgi yetersizliği (olası nedenler öznel hatalardır: yalanlar, yanlış bilgilendirme, ekipman arızası);
  • verilerin niceliksel sunumuna ilişkin kriterlerin doğruluğu ve doğruluğuna ilişkin gerekliliklere uyulmaması nedeniyle ortaya çıkan ölçüm hataları;
  • tezahürü, ortalama değerlerine göre verilerde rastgele dalgalanmalar olan rastgele hatalar (nedeni şunlar olabilir: ekipmanın güvenilmezliği, Brownian hareketi, termal etkiler vb.).

Günümüzde hataların bir kısmını veya tamamını ortadan kaldırmaya çalışan ve belirsizlik koşullarında güvenilir mantıksal çıkarımlar sağlayan önemli sayıda belirsizlik teorisi geliştirilmiştir. Uygulamada en yaygın olarak kullanılan teoriler, klasik olasılık tanımına ve sonsal olasılığa dayanan teorilerdir.

Yapay zeka problemlerini çözmenin en eski ve en önemli araçlarından biri olasılıktır. Olasılık belirsizliği muhasebeleştirmenin niceliksel bir yoludur. Klasik olasılık, ilk olarak 1654'te Pascal ve Fermat tarafından önerilen bir teoriden kaynaklanmaktadır. O zamandan bu yana olasılık alanında ve bilim, teknoloji, işletme, ekonomi ve diğer alanlarda olasılığın çok sayıda uygulamasının uygulanması alanında pek çok çalışma yapıldı.

Klasik olasılık

Klasik olasılık Tanımı ideal sistemler için geçerli olduğundan, önsel olasılık olarak da adlandırılır. "A priori" terimi, gerçek dünyada meydana gelen birçok faktör dikkate alınmaksızın "olaylara göre" belirlenen bir olasılığı ifade eder. Önsel olasılık kavramı, aşınmaya ve yıpranmaya veya diğer sistemlerin etkisine yatkın ideal sistemlerde meydana gelen olayları kapsar. İdeal bir sistemde herhangi bir olayın meydana gelmesi aynı şekilde gerçekleşir ve analizleri çok daha kolay olur.

Klasik olasılığın (P) temel formülü şu şekilde tanımlanır:

Bu formülde K beklenen olayların sayısıdır ve N- Bir deney veya testin olası sonuçları olan, eşit olasılıklara sahip olayların toplam sayısı. Örneğin, altı yüzlü bir zarda herhangi bir yüzün gelme olasılığı 1/6, 52 farklı kartın bulunduğu desteden herhangi bir kartın çekilme olasılığı ise 1/52'dir.

Olasılık teorisinin aksiyomları

Üç aksiyoma dayanarak resmi bir olasılık teorisi oluşturulabilir:

Yukarıdaki aksiyomlar olasılık teorisinin temelini atmayı mümkün kılmıştır, ancak olayların gerçek - ideal olmayan sistemlerde meydana gelme olasılığını dikkate almazlar. A priori yaklaşımın aksine, gerçek sistemlerde bazı olayların olasılığını belirlemek için P(E), deneysel olasılığı frekans dağılım limiti olarak belirlemek için bir yöntem kullanılır:

Arka olasılık

Bu formülde f(E) arasında bazı olayların meydana gelme sıklığını belirtir. N-genel sonuçlara ilişkin gözlemlerin sayısı. Bu tür olasılığa aynı zamanda denir. arka olasılık yani olasılık “olaylardan sonra” belirlenir. Sonsal olasılığı belirlemenin temeli, çok sayıda deneme boyunca bir olayın meydana gelme sıklığının ölçülmesidir. Örneğin, ampirik deneyime dayanarak kredi değerli bir banka müşterisinin sosyal tipinin belirlenmesi.

Birbirini dışlamayan olaylar birbirini etkileyebilir. Bu tür olaylar karmaşık olarak sınıflandırılır. Karmaşık olayların olasılığı, karşılık gelen örnek uzayları analiz edilerek hesaplanabilir. Bu örnek uzaylar, Şekil 2'de gösterildiği gibi Venn diyagramları kullanılarak temsil edilebilir. 1

Şekil 1 Birbirini dışlamayan iki olay için örnek alan

B olayının meydana geldiği dikkate alınarak belirlenen A olayının gerçekleşme olasılığına koşullu olasılık denir ve ile gösterilir. P(A|B). Koşullu olasılık şu şekilde tanımlanır:

Önceki olasılık

Bu formülde olasılık P(B) sıfıra eşit olmamalıdır ve diğer ek bilgiler bilinmeden önce belirlenen önsel olasılığı temsil eder. Önceki olasılık Koşullu olasılığın kullanımıyla bağlantılı olarak kullanılan bazen mutlak olasılık olarak da adlandırılır.

Koşullu olasılığı hesaplama sorununun esasen tam tersi olan bir sorun vardır. Gelecekte meydana gelen olayları dikkate alarak önceki bir olayın olasılığını gösteren ters olasılığın belirlenmesinden oluşur. Uygulamada, bu tür bir olasılık, örneğin belirli semptomların tanımlandığı tıbbi teşhis veya ekipman teşhisi sırasında oldukça sık meydana gelir ve görev olası bir nedeni bulmaktır.

Bu sorunu çözmek için şunu kullanın: Bayes teoremi Adını 18. yüzyıl İngiliz matematikçisi Thomas Bayes'ten almıştır. Bayes teorisi artık ekonomi ve sosyal bilimlerde karar ağaçlarını analiz etmek için yaygın olarak kullanılmaktadır. Bayesian çözüm arama yöntemi aynı zamanda PROSPECTOR uzman sisteminde maden arama için umut verici sahaların belirlenmesinde de kullanılmaktadır. PROSPECTOR sistemi, yardımıyla 100 milyon dolar değerinde değerli bir molibden yatağının keşfedilmesini sağlayan ilk uzman sistem olarak geniş bir popülerlik kazandı.

Bayes teoreminin genel formu olaylar (E) ve hipotezler (H) cinsinden şu şekilde yazılabilir:

Sübjektif olasılık

Bir olayın olasılığını belirlerken subjektif olasılık adı verilen başka bir olasılık türü de kullanılır. Konsept öznel olasılık tekrarlanamayan ve tahminde bulunulacak tarihsel bir temeli olmayan olaylara kadar uzanır. Bu durumu yeni bir sahada petrol kuyusu açılmasına benzetebiliriz. Ancak subjektif olasılığın bir uzman tarafından değerlendirilmesi, hiç değerlendirme yapılmamasından daha iyidir.

Soru No. 38. Etkinlik grubunu tamamlayın. Toplam olasılık formülü. Bayes formülleri.

İki olay. Toplamda bağımsızlık. Bu durumda çarpma teoreminin formülasyonu.

Soru No. 37. Koşullu olasılık. Çarpma teoremi. Bağımsızlığın tanımı

Koşullu olasılık, başka bir olayın meydana gelmiş olması durumunda bir olayın olasılığıdır.

P(A│B)= p(AB)/ p(B)

Koşullu olasılık, bir olayın diğerinin olasılığı üzerindeki etkisini yansıtır.

Çarpma teoremi.

Olayların gerçekleşme olasılığı P(A 1,A 2,….A n)= P(A 1)P(A 2/ A 1)…P(A n / A 1 A 2… bir n -1)

İki olayın çarpımı için şu sonucu çıkarır:

P(AB)=P(A/B)P(B)=P(B/A)P(A)

Bir olay diğerine bağlı değilse, birinin meydana gelmesi diğerinin meydana gelme olasılığını etkilemiyorsa, bu durumda ikincisi de birinciye bağlı değildir. Bu, bu tür olayları bağımsız olarak adlandırmak için her türlü nedeni verir. Matematiksel olarak bağımsızlık, bir olayın koşullu olasılığının, olasılığıyla (koşulsuz olasılık) aynı olması anlamına gelir.

1. A olayının B olayına bağlı olmadığını söylüyorlar:

P(A│B)=P(A)

A olayı B olayına bağlı değilse B olayı da A olayına bağlı değildir.

2. A ve B olayları bağımsızsa, P(AB) = P(A)P(B) - bu eşitlik bağımsız olayları belirlemek için kullanılır.

Olayların ikili bağımsızlığı ile toplamda bağımsızlık arasında ayrım yapmak gerekir.

A1, A2,….An olayları, eğer ikili olarak bağımsızlarsa ve her biri diğer olaylar dizisinin çarpımına bağlı değilse toplu olarak bağımsız olarak adlandırılır.

A1, A2,….An olayları toplamda bağımsız ise o zaman

P(A 1,A 2,….A n)=P(A 1)P(A 2)…P(A n).

Her grupta, imtihan sonucunda mutlaka bir olay meydana gelecektir ve bunlardan birinin meydana gelmesi, diğerlerinin meydana gelmesini dışlar. Bu tür olaylara tam olay grubu denir.

Tanım: Bir olay grubu, test sonucunda en az birinin gerçekleşmesini gerektirecek nitelikteyse ve herhangi iki tanesi birbiriyle uyumsuzsa, bu olaylar grubuna tam grup denir.

Tam bir gruptaki her olaya temel olay denir. Her temel olay eşit derecede mümkündür çünkü bunlardan herhangi birinin grubun tamamındaki diğer olaylardan daha olası olduğuna inanmak için hiçbir neden yok.

İki karşıt olay tam bir grup oluşturur.

A olayının göreceli sıklığı, A olayının meydana geldiği deneyimlerin sayısının toplam deneyim sayısına oranıdır.

Göreceli frekans ile olasılık arasındaki fark, olasılığın doğrudan deney yapılmadan hesaplanması ve bağıl frekansın deneyden sonra hesaplanmasıdır.



Toplam Olasılık Formülü

(burada A bir olaydır, H1, H2 ... Hi ikili olarak uyumsuzdur, tam bir grup oluşturur ve A, H1, H2 Hi ile birlikte meydana gelebilir)

P(A)=P(A|H 1) P(H 1)+P(A|H 2)P(H 2)+P(A|H 3)P(H 3)+…+P(A| Hn)P(Hn)

Bayes formülü

Р(Нi |A)=

Yorum. Hi olaylarına olasılık hipotezleri denir, p(Hi) hipotezlerin a priori olasılıklarıdır Hi ve olasılıklar P(Hi/A) hipotezlerin a posteriori olasılıklarıdır Hi

Deneyin sonucu bilinsin, yani A olayının meydana geldiği. Bu durum hipotezlerin a priori (yani deneyden önce bilinen) olasılıklarını değiştirebilir. Bilinen bir deneysel sonuçla hipotezlerin olasılıklarını yeniden tahmin etmek için Bayes formülü kullanılır:

Örnek. Vuruş olasılıkları 0,6 ve 0,7 olan iki atıcının iki atışından sonra hedefte bir delik oluştu. İlk atıcının vurma olasılığını bulun.

Çözüm. A olayı iki atışla tek vuruş olsun,

ve hipotezler: H1 – ilk vuruş ve ikincisi kaçırıldı,

H2 – ilk kaçırılan ve ikinci vuruş,

H3 - ikisi de vurdu,

H4 – ikisi de ıskaladı.

Hipotezlerin olasılıkları:

р(Н1) = 0,6·0,3 = 0,18,

p(H2) = 0,4·0,7 = 0,28,

р(Н3) = 0,6·0,7 = 0,42,

p(H4) = 0,4 0,3 = 0,12.

O halde p(A/H1) = p(A/H2) = 1,

p(A/H3) = p(A/H4) = 0.

Dolayısıyla toplam olasılık p(A) = 0,18 1 + 0,28 1 + 0,42 0 + 0,12 0 = 0,46.

Toplam olasılık formülü, ilgilenilen bir olayın olasılığını, belirli hipotezlerin varsayımları altında bu olayın koşullu olasılıkları ve bu hipotezlerin olasılıkları aracılığıyla hesaplamanıza olanak tanır.

Tanım 3.1. A olayının yalnızca H1, H2,..., Hn olaylarından biriyle birlikte meydana gelebileceğini ve uyumsuz olayların tam bir grubunu oluşturduğunu varsayalım. O halde Н1, Н2,…, Нп olaylarına hipotez denir.

Teorem 3.1. A olayının H1, H2,..., Hn hipotezleriyle birlikte meydana gelme olasılığı şuna eşittir:

burada p(Hi) i'inci hipotezin olasılığıdır ve p(A/Hi) bu hipotezin uygulanmasına bağlı olarak A olayının olasılığıdır. (P(A)=) formülüne toplam olasılık formülü denir

Soru No. 39. Bernoulli şeması. Bir dizi n denemede m başarı olasılığı

Rastgele bir olay, bu olayın tezahürünün yoğunluğunu belirleyen bir sayı ile değerlendirilir. Bu numara denir olasılık olaylar P() . Temel bir olayın olasılığı – . Bir olayın olasılığı, nesnellik derecesinin, bu olayın olasılığının sayısal bir ölçüsüdür. Olasılık ne kadar yüksek olursa, olay o kadar olası olur.

Sonuç uzayının tamamıyla çakışan herhangi bir olay S, isminde güvenilir olay yani Deney sonucunda mutlaka gerçekleşmesi gereken bir olay (örneğin, bir zarda 1'den 6'ya kadar herhangi bir sayıda puanın kaybedilmesi). Olay sete ait değilse S, o zaman dikkate alınır imkansız(örneğin, bir zarın üzerinde 6'dan büyük bir sayının atılması). İmkansız bir olayın olasılığı 0, belirli bir olayın olasılığı 1'dir. Diğer tüm olayların olasılığı 0'dan 1'e kadardır.

Olaylar e Ve denir zıt, Eğer e gelmeyince gelir . Örneğin, olay e– “çift sayıda puanın yuvarlanması”, ardından etkinlik – “tek sayıda puan yuvarlamak.” İki olay e 1 Ve e 2 denir uyumsuz Her iki olay için de ortak bir sonuç yoksa.

Rastgele olayların olasılıklarını belirlemek için doğrudan veya dolaylı yöntemler kullanılır. Olasılığı doğrudan hesaplarken, a priori ve a posteriori hesaplama şemaları ayırt edilir; gözlemler (deneyler) yapın veya deneylerin sayısını önceden sayın M olayın kendini gösterdiği yer ve gerçekleştirilen toplam deney sayısı N. Dolaylı yöntemler aksiyomatik teoriye dayanmaktadır. Olaylar kümeler olarak tanımlandığı için üzerlerinde tüm küme-teorik işlemler gerçekleştirilebilir. Küme teorisi ve fonksiyonel analiz, akademisyen A.N. Kolmogorov ve aksiyomatik olasılık teorisinin temelini oluşturdu. Olasılık aksiyomlarını sunalım.

AksiyomBEN. Etkinlik alanıF(S) kümelerin bir cebiridir.

Bu aksiyom, küme teorisi ile olasılık teorisi arasındaki analojiye işaret eder.

AksiyomII. Her seteitibarenF(S) bir gerçek sayı P( ile ilişkilidir)), olayın olasılığı denir:

buna göre S 1 S 2 = (uyumsuz olaylar için S 1 Ve S 2 ) veya bir dizi uyumsuz etkinlik için

Nerede N– temel olayların sayısı (olası sonuçlar).

Rastgele bir olayın olasılığı

,

Nerede – temel olayların olasılıkları alt kümeye dahil .

Örnek 1.1. Bir zar atıldığında her sayının gelme olasılığını belirleyin, çift sayı, sayı alma 4 .

Çözüm. Her sayının kümeden düşme olasılığı

S = (1, 2, 3, 4, 5, 6)
1/6.

Çift sayı gelme olasılığı, yani.
={2,
4, 6}, (1.6)'ya dayanarak şöyle olacaktır: P(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2
.

Bir sayı alma olasılığı  4 yani
= {4, 5, 6 } ,

P(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2.

Bağımsız çalışma için ödevler

1. Bir sepette 20 beyaz, 30 siyah ve 50 kırmızı top vardır. Sepetten çekilen ilk topun beyaz olma olasılığını belirleyin; siyah; kırmızı.

2. Öğrenci grubunda 12 erkek ve 10 kız bulunmaktadır. Olasılık teorisi seminerinde aşağıdakilerin bulunmama olasılığı nedir: 1) genç bir adam; 2) kız; 3) iki genç adam mı?

3. Yıl boyunca 51 gün, bu günlerde yağmur yağması (veya kar yağması) ile ayırt edildi. Yağmura (veya kara) yakalanma riskiniz nedir: 1) işe gitmek; 2) 5 gün boyunca yürüyüşe mi çıkacaksınız?

4. Bu ödevin konusuyla ilgili bir problem yazın ve çözün.

1.1.3. Son olasılığın tanımı (istatistiksel olasılık veya frekans)

rastgele olay)

Olasılığı önceden belirlerken, varsayıldı: aynı derecede olasıdır. Bu her zaman doğru değildir;
en
. Varsayım
a priori belirlemede hataya yol açar P( ) oluşturulan şemaya göre. Belirlemek için ve genel durumda P( ) hedefe yönelik testler gerçekleştirin. Bu tür testler sırasında (örneğin, örnek 1.2, 1.3'teki test sonuçları), çeşitli koşullar, etkiler, nedensel faktörler gibi farklı koşullar altında; çeşitli vakalar,çeşitli sonuçlar(Çalışılan nesnenin bilgilerinin çeşitli belirtileri) Her test sonucu bir öğeye karşılık gelir. veya bir alt küme setleri S.Eğer tanımlarsak M olumlu olayların sayısı olarak A sonucu ortaya çıkan sonuçlar N testler, ardından son olasılık (rastgele bir olayın istatistiksel olasılığı veya sıklığı) A)

Büyük sayılar kanununa göre A

, N ,

onlar. Deneme sayısı arttıkça, rastgele bir olayın sıklığı (sonraki veya istatistiksel olasılık) bu olayın olasılığına doğru yönelir.

Örnek 1.2. Vaka şemasına göre belirlenen, yazı tura atıldığında yazı gelme olasılığı 0,5'tir. Bir parayı 10, 20, 30... kez atmanız ve her test serisinden sonra rastgele tura olayının sıklığını belirlemeniz gerekiyor.

Çözüm. C. Poisson 24.000 kez yazı tura attı ve 11.998 kez tura geldi. Daha sonra formül (1.7)'ye göre tura gelme olasılığı

.

Bağımsız çalışma için ödevler

    Büyük istatistiksel materyale dayanarak ( N ) Tablo 1.1'de verilen metinlerde Rus alfabesindeki tek tek harflerin ve boşluğun () görünme olasılıklarının değerleri elde edilmiştir.

Tablo 1.1. Alfabedeki harflerin metinde görünme olasılığı

Herhangi bir metnin bir sayfasını alın ve o sayfada farklı harflerin görünme sıklığını belirleyin. Testlerin uzunluğunu iki sayfaya çıkarın. Elde edilen sonuçları tablodaki verilerle karşılaştırın. Bir sonuç çıkarın.

    Hedeflere ateş ederken aşağıdaki sonuç elde edildi (bkz. Tablo 1.2).

Tablo 1.2. Hedef atış sonuçları

Hedefin boyutu “on”, “dokuz” vb.'den küçük olsaydı ilk atışta vurulma olasılığı nedir?

3. Diğer etkinlikler için benzer testleri planlayın ve uygulayın. Sonuçlarını sunun.

Aradığımız dönüşümü şu şekilde tanımlayabiliriz:
, Nerede

P(x|z) - son olasılık (wiki);
P(z|x) - olabilirlik fonksiyonu (veriye, yani mevcut görüntüye bağlıdır);
P(x) - a priori olasılık (veriye bağlı değildir).
Aslında en iyi ayrımı bulma problemi şu şekilde formüle edilebilir:
(bu, MAP'ı ifade eden formüldür) veya aynı olan
, Nerede
E(x) - görüntü enerjisi.
Her parçaya ayrı ayrı bakalım.

Olasılık fonksiyonu
Bu fonksiyon, x = 0 veya x = 1 olduğunda mevcut z pikselinin ihtiyacımız olan görüntü alanına ait olup olmadığını gösterir. Bunu sağdaki resimde görebilirsiniz.
        Sonucu iyileştirmek için maksimumu bulmamız gerekiyor:

        Sonuç aşağıdaki gibi olmalıdır:
Önceki olasılık
Bu parametre, segmentasyon sırasında komşu pikselleri dikkate almanızı sağlar. Mevcut pikseli dikey ve yatay komşularına bağlayalım. Daha sonra:
, Nerede

- ayırma işlevi;

- “Öncelik” (Yuriv'in önerdiği gibi Ising'in önsel olasılığı).
Aynı zamanda herkes

Arka olasılık
Bu terimi belirlemek için Gibbs dağılımını (wiki) kullanacağız:
, Nerede

Birinci terimin mevcut pikselin tek başına enerji değeri, ikincisi ise komşusuyla birlikte toplam değeri olduğu görüntü enerjisi; w, değeri deneysel olarak belirlenen belirli bir ağırlıktır;

Olasılık fonksiyonu;

Önceki olasılık.
Phew, az kaldı, en önemli şey.

Enerji minimizasyonu

En başta belirlediğimiz gibi minimum enerji MAP'a karşılık gelir. Bu durumda:

(gerekli minimum enerji)

Sonuçlar

Okuyucu “Neydi ve en önemlisi NEDEN?!” diye soracaktır. W ağırlığı için farklı değerler göstererek karşılaşabileceğiniz sonuç şu:

Sonuçlar

Bu yöntemin özel güzelliği her türlü enerji formülünü belirleyebilmemizdir. Örneğin, yalnızca düz çizgilerin seçimini, bir görüntüdeki belirli sayıda düz çizginin/eğrinin kesişme noktalarını ve çok daha fazlasını seçebilirsiniz. Bu arada, MS Office 2010'un mutlu sahibi, açıklanan teknolojiyi deneyebilir. Tek yapmanız gereken Arka Plan Kaldırma aracını kullanmak.
        İlginiz için teşekkür ederiz!
Metin Yazarı Köşesi
Kullanılan tüm görseller Carsten Rother'in eserlerindendir. Çevrimiçi kullanılarak oluşturulan formüller önceki olasılık dağılımı, veya sadece önceki) belirsiz değere sahip p (\displaystyle p)- olasılık dağılımı, ilgili varsayımları ifade eder p (\displaystyle p) Deneysel verileri dikkate almadan önce. Örneğin, eğer p (\displaystyle p) belirli bir adaya oy vermeye hazır seçmenlerin payı ise, o zaman önsel dağılım şu varsayım olacaktır: p (\displaystyle p) Anket veya seçim sonuçları dikkate alınmadan önce. Arka olasılık ile tezat oluşturuyor.

[ | ]

Bilgilendirici ön dağıtım Bir değişken hakkında belirli bilgileri ifade eder. Örneğin, yarın öğle vakti hava sıcaklığı için uygun bir ön dağılım, ortalaması bugünkü öğle sıcaklığına ve varyansı günlük sıcaklık değişimine eşit olan normal bir dağılım olacaktır.

Doğal a priori örneği olarak, Jaynes'i (2003) takip ederek, bir topun A, B veya C şeklindeki üç fincandan birinin altında saklandığının bilindiği ancak başka hiçbir bilginin mevcut olmadığı bir durumu düşünün. Bu durumda düzgün dağılım p (A) = p (B) = p (C) = 1 3 (\displaystyle p(A)=p(B)=p(C)=(\frac (1)(3))) sezgisel olarak tek makul olan gibi görünüyor. Daha resmi olarak, bardakların isimleri değişse de sorun değişmiyor. Bu nedenle, adların yeniden düzenlenmesinin onu değiştirmeyeceği şekilde bir önsel dağılım seçmekte fayda vardır. Ve tek uygun dağıtım tek biçimli dağıtımdır.

Yanlış ön dağıtım[ | ]

Bayes teoremi şu şekilde yazılırsa:

P (A ben | B) = P (B | A i) P (A ben) ∑ j P (B | A j) P (A j) , (\displaystyle P(A_(i)|B)=(\ frac (P(B|A_(i))P(A_(i)))(\sum _(j)P(B|A_(j))P(A_(j))))\,)

o zaman tüm önceki olasılıklar geçerli olursa bunun doğru kalacağı açıktır. P(A Ben) Ve P(A J) aynı sabitle çarpılacaktır; aynı durum sürekli rastgele değişkenler için de geçerlidir. Önseller normalleştirilmese bile son olasılıklar 1'in toplamına (veya integraline) göre normalleştirilmiş olarak kalacaktır. Bu nedenle, ön dağılım olasılıkların yalnızca doğru oranlarını belirtmelidir.

Ayrıca bakınız [ | ]



Makaleyi beğendin mi? Arkadaşlarınızla paylaşın!