Chebyshev formunda büyük sayılar kanunu. Chebyshev teoreminin uygulama açısından önemi

Kursun başında zaten bundan bahsetmiştik. matematik yasaları olasılık teorileri, kütlesel rastgele olayların doğasında bulunan gerçek istatistiksel kalıpların soyutlanmasıyla elde edilir. Bu modellerin varlığı, tam olarak olayın kitlesel doğasıyla, yani gerçekleştirilen çok sayıda homojen deneyle veya bütünlükleri içinde bir rastgele değişkene tabi olan çok sayıda kümülatif rastgele etkilerle ilişkilidir. iyi tanımlanmış bir yasa. Kütle stabilite özelliği rastgele olaylar Antik çağlardan beri insanoğlu tarafından biliniyor. Hangi alanda kendini gösterirse göstersin, özü şu şekilde özetlenebilir: spesifik özellikler her bir rastgele olgunun, kitlelerin ve bu tür olayların ortalama sonucu üzerinde neredeyse hiçbir etkisi yoktur; Her bir olguda kaçınılmaz olan ortalamadan rastgele sapmalar, kütle içinde karşılıklı olarak iptal edilir, dengelenir, dengelenir. “Yasanın” fiziksel içeriğini temsil eden de ortalamaların bu istikrarıdır. büyük sayılar", kelimenin geniş anlamıyla anlaşıldı: çok çok sayıda Rastgele olaylar söz konusu olduğunda, ortalama sonuçları pratikte rastgele olmaktan çıkar ve yüksek derecede kesinlik ile tahmin edilebilir.

İÇİNDE dar anlamda Olasılık teorisinde “büyük sayılar kanunu” kelimesi bir dizi anlamına gelir matematik teoremleri, her birinde, belirli koşullar için, çok sayıda deneyin ortalama özelliklerinin belirli sabitlere yaklaştığı gerçeği belirlenir.

2.3'te bu teoremlerin en basitini, J. Bernoulli'nin teoremini zaten formüle etmiştik. Çok sayıda deneyle, bir olayın sıklığının bu olayın olasılığına yaklaştığını (daha doğrusu olasılık açısından yakınsadığını) iddia ediyor. Bu bölümde büyük sayılar yasasının diğer, daha genel biçimlerine aşina olacağız. Hepsi belirli olasılıklarda yakınsama gerçeğini ve koşullarını ortaya koyuyor rastgele değişkenler rastgele miktarlara değil, sabit miktarlara.

Büyük sayılar kanunu önemli bir rol oynar. pratik uygulamalar olasılık teorisi. Rastgele değişkenlerin belirli koşullar altında neredeyse rastgele olmayanlar gibi davranma özelliği, kişinin bu niceliklerle güvenle çalışmasına ve kütlesel rastgele olayların sonuçlarını neredeyse tam bir kesinlikle tahmin etmesine olanak tanır.

Kütlesel rastgele olaylar alanında bu tür tahminlerin olanakları, başka bir grubun varlığıyla daha da genişletilir. limit teoremleri artık rastgele değişkenlerin sınırlayıcı değerleriyle değil, dağıtımın sınırlayıcı yasalarıyla ilgilidir. Hakkında"Merkezi limit teoremi" olarak bilinen bir grup teorem hakkında. Yeterince fazla sayıda rastgele değişken toplandığında, toplamın dağılım yasasının belirli koşullara bağlı olarak süresiz olarak normale yaklaştığını söylemiştik. Matematiksel olarak çeşitli yollarla - az ya da çok genel bir biçimde - formüle edilebilen bu koşullar, esas olarak, bireysel terimlerin toplamı üzerindeki etkinin eşit derecede küçük olması, yani toplamın aşağıdaki üyeleri içermemesi gerekliliğine indirgenir. miktarın dağılımı üzerindeki etkilerine göre bütünlüğe açıkça hakimdirler. Merkezi limit teoreminin çeşitli biçimleri, rastgele değişkenlerin toplamının bu sınırlayıcı özelliğinin oluşturulduğu koşullar altında birbirinden farklılık gösterir.

Büyük sayılar yasasının çeşitli biçimleri ve çeşitli formlar Merkezi limit teoremi olasılık teorisinin limit teoremleri olarak adlandırılan bir dizi oluşturur. Limit teoremleri, yalnızca rastgele olaylar alanında bilimsel tahminler yapmayı değil, aynı zamanda bu tahminlerin doğruluğunu da değerlendirmeyi mümkün kılar.

Bu bölümde sadece en çok bazılarını ele alacağız. basit şekiller sınır teoremleri. Öncelikle “büyük sayılar kanunu” grubuna ait teoremleri, ardından “merkezi limit teoremi” grubuna ait teoremleri ele alacağız.

()

Chebyshev'in büyük sayılar yasasının anlamı aşağıdaki gibidir. Bireysel bir rastgele değişken kendisinden çok uzak değerler alabilirken matematiksel beklenti Olasılığı birliğe yakın olan çok sayıda rastgele değişkenin aritmetik ortalaması, matematiksel beklentilerinin aritmetik ortalamasından çok az farklı bir değer alır.
Chebyshev'in büyük sayılar yasasının özel bir durumu. İzin vermek - ortaklaşa sınırlı varyansa sahip olan ikili bağımsız rastgele değişkenler dizisi, yani; ve aynı matematiksel beklentiler . O zaman ne olursa olsun , ilişki geçerlidir

Bu doğrudan formül ()'den gelir, çünkü

Yorum. Rastgele bir değişken olduğunu söylüyorlar olasılıkta birleşir numaraya A, artan oranlarda keyfi olarak küçük eşitsizlik olasılığı için ise N sınırsız birliğe yaklaşır. Olasılıktaki yakınsama bu anlama gelmez. Gerçekten de ikinci durum eşitsizlik yeterince büyük tüm değerler için geçerlidir N. Olasılıktaki yakınsama durumunda, bireysel keyfi büyük değerler için bu eşitsizlik N Belki Gerçekleştirilemedi. Ancak büyük değerler için eşitsizliğin sağlanamaması NÇok nadir (olası olmayan) bir olay var. Bunu dikkate alarak, özel durum Chebyshev'in büyük sayılar yasası aşağıdaki gibi formüle edilebilir.
Aritmetik ortalama ikili bağımsız rastgele değişkenler ortaklaşa sınırlı varyanslara ve aynı matematiksel beklentilere sahip olan , olasılık olarak bire yakınsar.
Chebyshev'in büyük sayılar yasasının özel durumunun anlamını açıklayalım. Bulmak gerekli olsun gerçek anlam A bazı fiziksel miktar(örneğin, bir parçanın boyutu). Bunu yapmak için birbirinden bağımsız bir dizi ölçüm yapacağız. Her ölçüme bazı hatalar eşlik eder (). Bu nedenle mümkün olan her ölçüm sonucu rastgele bir değişkendir (indeks Ben- ölçüm numarası). Her ölçümde sistematik bir hatanın, yani gerçek değerden sapmanın olmadığını varsayalım. AÖlçülen miktarın her iki yönde de eşit olması muhtemeldir. Bu durumda tüm rastgele değişkenlerin matematiksel beklentileri aynı ve ölçülen değere eşittir. A yani
Son olarak ölçümlerin garantili bir doğrulukla yapıldığını varsayalım. Bu, tüm ölçümler için anlamına gelir. Dolayısıyla, Chebyshev'in büyük sayılar yasası koşullarındayız ve bu nedenle, eğer ölçüm sayısı yeterince büyükse, o zaman pratik kesinlikle şunu söyleyebiliriz: ne olursa olsun, ölçüm sonuçlarının aritmetik ortalaması gerçek değerden farklıdır. A daha az

Büyük sayılar kanunu merkezi kanun olasılık teorisi, düzenlilik ve rastgelelik arasında temel bir bağlantıyı formüle etmesi nedeniyle. Yani çok sayıda kazanın bir kalıba yol açtığını, bunun da olayların gidişatını tahmin etmeyi mümkün kıldığını savunuyor. Çoğunda Genel form kendini ifade ediyor Chebyshev'in teoremi:

İzin vermek ( Χ 1; X2; …Xn; ...) bağımsız rastgele değişkenler (oldukları varsayılır) sonsuz sayı). Ve varyanslarının düzgün sınırlı olmasına izin verin (yani tüm bu rastgele değişkenlerin varyansları bazı sabitleri aşmasın) İLE):

O zaman pozitif sayı ne kadar küçük olursa olsun sınırlayıcı olasılık ilişkisi sağlanır:

Rastgele değişkenlerin sayısı yeterince büyükse. Veya aynı şey nedir, olasılık

Dolayısıyla Chebyshev'in teoremi şunu belirtir: Yeterince büyük bir sayıyı düşünürsek N bağımsız rastgele değişkenler ( Χ 1; X2; …Xn), o zaman olay neredeyse güvenilir kabul edilebilir (birliğe yakın bir olasılıkla), bu rastgele değişkenlerin aritmetik ortalamasının matematiksel beklentilerinin aritmetik ortalamasından sapması şuna göre olacaktır: mutlak değer istediğin kadar küçük

Kanıt. Χ 1; X2; …Xn):

(4)

; (5)

Koşulları (1) dikkate alarak şunu tespit ederiz:

(6)

Böylece, varyans olduğunda. Yani bir rastgele değişkenin değerlerinin matematiksel beklentisi etrafındaki yayılımı sınırsız bir şekilde azaldığında. Bu da şu anlama geliyor: değer ne zaman, yani, . Veya daha kesin bir ifadeyle, bir rastgele değişkenin en azından bir şekilde matematiksel beklentisinden (bir sabit) sapma olasılığı sıfıra yaklaşır. Yani, keyfi olarak küçük herhangi bir pozitif sayı için

Yani kanıtlanmış Chebyshev teoremine göre, çok sayıda bağımsız rastgele değişkenin aritmetik ortalaması ( Χ 1; X2; …Xn), rastgele bir değişken olduğundan, aslında rastgelelik karakterini kaybeder ve aslında değiştirilemez bir sabit haline gelir. Bu sabit, değerlerin matematiksel beklentilerinin aritmetik ortalamasına eşittir ( Χ 1; X2; …Xn). Bu büyük sayılar kanunudur.

Chebyshev teoreminin bir başka kanıtı da verilebilir. Bunu yapmak için Chebyshev eşitsizliğini kullanıyoruz. Hem kesikli hem de sürekli rastgele değişkenler için geçerlidir ve kendi başına bir değere sahiptir. Chebyshev eşitsizliği, bir rastgele değişkenin matematiksel beklentisinden sapmasının mutlak değeri aşmama olasılığını tahmin etmemizi sağlar. pozitif sayı. Ayrık rastgele değişkenler için Chebyshev eşitsizliğinin bir kanıtını sunalım.



Chebyshev eşitsizliği: Rastgele bir değişkenin sapma olasılığı X mutlak değerdeki matematiksel beklentisi pozitif bir sayıdan azdır, aşağıdakilerden daha az değildir:

.

Kanıt: Eşitsizliklerin uygulanmasından oluşan olaylar Ve , zıt ise olasılıklarının toplamı 1'e eşittir, yani. . Dolayısıyla ilgilendiğimiz olasılık. (*)

Bulacağız . Bunun için varyansı bulalım rastgele değişken X.

Bu toplamın tüm terimleri negatif değildir. Bu terimleri bir kenara bırakalım (kalan şartlar için ), bunun sonucunda miktar yalnızca azalabilir. Kesin olarak şunu varsaymayı kabul edelim: k ilk terimler (dağıtım tablosunda olduğunu varsayacağız) olası değerler bu sıraya göre numaralandırılmıştır). Böylece,

Eşitsizliğin her iki tarafı da pozitiftir, dolayısıyla bunların karesini alırsak eşdeğer eşitsizliği elde ederiz . Bu açıklamayı kullanalım ve çarpanların her birini kalan toplamda yerine koyalım. sayısını (bu durumda eşitsizlik yalnızca artabilir) elde ederiz. (**)

Toplama teoremine göre olasılıkların toplamı olasılıktır. X hangisi olursa olsun değerini alacak ve bunlardan herhangi biri için sapma eşitsizliği karşılar . Toplamın olasılığı ifade ettiği sonucu çıkar . Bu, eşitsizliği (**) şu şekilde yeniden yazmamızı sağlar: . (***).

Hadi değiştirelim (***) V (*) ve alıyoruz Kanıtlanması gereken şey buydu.

Chebyshev Teoremi 2'nin Kanıtı:

Yeni bir rastgele değişkeni dikkate alalım: rastgele değişkenlerin aritmetik ortalaması ( Χ 1; X2; …Xn):

Matematiksel beklenti ve dağılım özelliklerini kullanarak şunu elde ederiz:

; . (*)

Chebyshev eşitsizliğini miktara uygularsak, elimizdeki sonuç elde edilir.

Oran (*) dikkate alındığında,

Koşul olarak şu anlama gelir . (***) Değiştirme Sağ Taraf(***) eşitsizliğe (**) dönüştürdük

Buradan, 'deki limite geçerek şunu elde ederiz:

Olasılık bir'i geçemeyeceğinden, sonunda şunu elde ederiz:

Kanıtlamamız gereken şey de buydu.

Chebyshev teoreminin önemli bir özel durumu üzerinde duralım. Yani, bağımsız rastgele değişkenlerin ( Χ 1; X2; …Xn) sahip olmak aynı kanunlar dağılımlar ve dolayısıyla aynı sayısal özellikler:

(8)

O zaman (5)'e göre rastgele değişken için elimizde:

(9)

Bu durumda sınırlayıcı olasılık ilişkisi (7) şu şekli alacaktır:

(10)

(10)’dan çıkan sonuç büyük önemÇeşitli ölçüm türlerini yaparken rastgele hatalarla mücadele etmek.

Örneğin belirli bir miktarı ölçmeniz gerektiğini varsayalım. A. Bir değil birkaç tane üreteceğiz ( N) bu miktarın değerinin bağımsız olarak tekrarlanan ölçümleri. Herhangi bir ölçüm, ölçüm cihazının kusuru, ölçümdeki her türlü rastgele girişim vb. ile ilişkili rastgele bir hatanın doğasında vardır. Bu nedenle sonuçlar ( Χ 1; X2; …Xn) istenilen değerin bireysel ardışık ölçümleri A genel olarak verilmeyecektir - bunlar rastgele değişkenler olacaktır. Ayrıca, sahip olunan miktarlarla özdeş dağılımlarÇünkü ölçümler tekrar tekrar yani sabit aralıklarla yapılır. dış koşullar. Daha sonra miktar için - tüm sonuçların aritmetik ortalaması Nölçümler - sınırlayıcı olasılık ilişkisi (10) yerine getirilecektir. Bu, bu aritmetik ortalamanın rastgelelik özelliğini yitirdiği ve A– ölçülen büyüklüğün gerçek değeri. Bu arada, bu, formül (9) ile kanıtlanmaktadır, buna göre:

(11)

Yani, istenen miktarda yeterince fazla sayıda tekrarlanan ölçüm gerçekleştirmiş olmak A her birinde rastgele bir ölçüm hatasının mümkün olduğu ve ardından ortalamanın bulunması aritmetik sonuçlar bu ölçümler için aşağıdaki formülü kullanırız

A(12)

değerini alabiliriz ve neredeyse rastgele hatalar olmadan.

Bu sonuç büyük sayılar kanununun bir sonucudur. İÇİNDE bu durumda Bu yasa, ölçüm sonuçlarını özetlerken (4)'ün ortaya çıkmasıyla ortaya çıkar. rastgele hatalar Prensipte hem artı hem de eksi işaretiyle eşit sıklıkta ortaya çıkan bireysel boyutlar genellikle birbirini iptal edecektir. Ve kalan hata yine de bölünecek P yani daha da azalacak P bir kere. Öyleyse ne zaman büyük değerler N değer ölçülen değere neredeyse tam olarak eşit olacaktır A. Bu sonuç doğal olarak pratikte yaygın olarak kullanılmaktadır.

Not. Büyüklük bakımından yalnızca birbirlerini iptal ederler rastgele hatalarölçümler, yani rastgele faktörlerin (parazit) eylemiyle ilişkili hatalar. Ancak sistematik (kalıcı) hatalar, yani her ölçümün doğasında bulunan hatalar doğal olarak . Örneğin, bir cihazda yere düşen (ayarlanmayan) bir ok, her ölçümde sabit (sistematik) bir hataya neden olur ve dolayısıyla bu ölçüm sonuçlarının aritmetik ortalamasında buna neden olur. Sistematik hatalar, ölçümler alınmadan önce ortadan kaldırılmalı ve ölçüm sürecinde izin verilmemelidir.

Daha sonra, ölçüm cihazının bölme değeri α ise, tekrarlanan tüm ölçümler α doğruluğu ile yapılır. Ancak o zaman, doğal olarak, tüm ölçümlerin sonuçlarının aritmetik ortalaması yalnızca α doğruluğuyla, yani cihazın doğruluğu tarafından belirlenen bir doğrulukla gösterilebilir.

Bu nedenle, miktarın yeterince fazla sayıda tekrarlanan ölçümünü yaptıktan sonra şunu düşünmemek gerekir: A ve sonra bu ölçümlerin sonuçlarının aritmetik ortalamasını bularak şunu elde ederiz: bire bir aynı Anlam A. Bunu yalnızca ölçüm cihazının doğruluğu dahilinde elde edeceğiz. Ve o zaman bile, eğer hariç tutarsak Sistematik hataölçümler.

Büyük sayılar yasasının bir başka önemli özel durumunu sunalım. İzin vermek X=k– bazı olayların gerçekleşme sayısı A V P tekrarlanan testler ( X- rastgele değer). Ve izin ver ve - Bir olayın gerçekleşme ve gerçekleşmeme olasılığı A tek bir testte. Bir rastgele değişkeni ele alalım - göreceli frekans bir olayın meydana gelmesi A V P testler. Biz de tanıtalım N rastgele değişkenler ( X 1, X 2, …X n), olayın gerçekleşme sayısını temsil eder A birincisinde, ikincisinde... P-th testleri. Daha sonra k = X 1 + X 2 +…+ X p ve bir olayın meydana gelmesi A pratik olarak olayın meydana gelme olasılığı ile örtüşmektedir A tek bir testte. Bu sonuç birçok olasılığın bulunmasına dayanmaktadır. rastgele olaylar olasılıkları başka bir şekilde (teorik olarak) bulunamayan.

Örneğin, testin deforme olmuş (asimetrik) bir madeni paranın atılması olduğunu varsayalım ve olay A Bu test için bu, armanın kaybıdır. Olayın olasılığı Aİle klasik formül veya başka bir şekilde teorik formül bulmak zordur çünkü böyle bir formülün madalyonun deformasyonunun özelliklerini bir şekilde yansıtması gerekir. Bu nedenle, hedefe giden gerçek yol tektir: parayı tekrar tekrar atın (atış sayısı ne kadar fazla olursa) N, daha iyi) ve armanın görünümünün göreceli sıklığını ampirik olarak belirleyin. Eğer N büyükse, büyük sayılar kanununa göre bu mümkündür yüksek olasılıkşunu iddia et .

Büyük sayılar kanunu birçok doğal ve sosyal olayda kendini gösterir.

Örnek 1. Bilindiği gibi kapalı bir kap içine konulan gaz, kabın duvarlarına basınç uygular. Gaz durumu kanunlarına göre sabit bir gaz sıcaklığında bu basınç sabittir. Gaz basıncı, bireysel moleküllerin kabın duvarlarına kaotik etkilerinden kaynaklanır. Tüm moleküllerin hızları ve hareket yönleri farklıdır, bu nedenle farklı moleküllerin damar duvarlarına çarpma kuvvetleri de farklıdır. Bununla birlikte, kabın duvarlarındaki gaz basıncı, tek tek moleküllerin darbe kuvvetiyle değil, onların etkisiyle belirlenir. ortalama zorla. Ama o ortalama biri gibi çok büyük sayı ne olursa olsun aktif kuvvetler Büyük sayılar kanununa göre pratikte değişmeden kalacaktır. Bu nedenle, kabın duvarlarındaki gaz basıncı pratikte değişmeden kalır.

Örnek 2. Örneğin otomobil sigortasıyla ilgilenen bir sigorta şirketi, sigortalı farklı olaylar (araba kazaları ve trafik kazaları) için farklı sigorta tutarları öder. Ancak bu sigorta tutarının ortalama değeri, birçok farklı ortalama olarak N Büyük sayılar kanununa göre bağımsız sigorta tutarları pratikte değişmeyecektir. Sigorta tazminat taleplerinin gerçek istatistikleri incelenerek belirlenebilir. Bir sigorta şirketinin zarara uğramaması için müşterilerinden kesilen ortalama sigorta priminin, şirketin müşterilerine ödediği ortalama primden yüksek olması gerekir. Ancak şirketin rekabetçi olabilmesi (diğer sigorta şirketleriyle çekicilik açısından rekabet edebilmesi) için bu primin çok yüksek olmaması gerekir.

"Geniş" test serilerinde bir olayın meydana gelme sıklığının, olasılığına "yakın" olduğu ifadesini niceliksel olarak açıklığa kavuşturma ihtiyacı oldukça doğaldır. Bu görevin ne kadar hassas olduğu açıkça anlaşılmalıdır. Olasılık teorisinin en tipik vakalarında durum, keyfi olarak uzun bir test dizisinde her ikisinin de teorik olarak mümkün kalmasıdır. aşırı değerler frekanslar

\frac(\mu)(n)=\frac(n)(n)=1 Ve \frac(\mu)(n)=\frac(0)(n)=0

Bu nedenle, n test sayısı ne olursa olsun, örneğin eşitsizliğin karşılanacağı tam bir kesinlikle ifade edilemez.

<\frac{1}{10}

Örneğin, A olayı bir zar atılırken altının atılmasıysa, o zaman n ile atış olasılığı vardır (\sol(\frac(1)(6)\sağ)\^n>0 !} her zaman yalnızca altılı alacağız, yani olasılık dahilinde (\sol(\frac(1)(6)\sağ)\^n !} altılı sayıların görülme sıklığını elde ederiz, bire eşit ve muhtemelen (\sol(1-\frac(1)(6)\sağ)\^n>0 !} altı bir kez bile görünmez, yani altıların görülme sıklığı sıfıra eşit olacaktır.

Tümünde benzer görevler Frekans ve olasılık arasındaki yakınlığa ilişkin önemsiz olmayan herhangi bir tahmin, tam bir güvenilirlikle işlemez, ancak yalnızca birden az bir olasılıkla çalışır. Örneğin bağımsız testlerde şu kanıtlanabilir: sabit olasılık p olay eşitsizliğinin ortaya çıkışı

\vline\,\frac(\mu)(n)-p\,\vline\,<0,\!02

frekans için \frac(\mu)(n) n=10\,000'de (ve herhangi bir p) olasılıkla yerine getirilecektir

P>0,\!9999.

Burada öncelikle yukarıdaki formülasyonda şunu vurgulamak istiyoruz: nicelik belirleme\frac(\mu)(n) frekansının p olasılığına yakınlığı, yeni bir P olasılığının ortaya çıkmasıyla ilişkilidir.

Tahmin (8)'in gerçek anlamı şudur: Eğer N sayıda n serisi test yaparsak ve eşitsizliğin (7) sağlandığı M seri sayısını sayarsak, o zaman yeterince büyük bir N için bu yaklaşık olarak olacaktır.

\frac(M)(N)\approx P>0,\!9999.

Ancak (9) ilişkisini hem \frac(M)(N)'nin P olasılığına yakınlık derecesi hem de böyle bir yakınlığın meydana geleceğini iddia edebileceğimiz güvenilirlik açısından açıklığa kavuşturmak istersek, o zaman şunu yaparız: \frac(\mu)(n) ve p'nin yakınlığı konusunda daha önce gerçekleştirdiğimiz uygulamalara benzer değerlendirmelere yönelmemiz gerekecek. İstenirse, bu tür bir akıl yürütme sınırsız sayıda tekrarlanabilir, ancak bunun kendimizi bu ihtiyaçtan tamamen kurtarmamıza izin vermeyeceği oldukça açıktır. son aşama Bu terimin ilkel, kaba anlayışındaki olasılıklara atıfta bulunun.

Bu tür zorlukların olasılık teorisinin bir tür özelliği olduğu düşünülmemelidir. Matematik çalışırken gerçek fenomen onları her zaman şematize ediyoruz. Gerçek olayların seyrindeki sapmalar teorik şema sırayla matematiksel çalışmaya tabi tutulabilir. Ancak bunun için bu sapmaların kendilerinin bir şemaya oturtulması ve bu ikincisinin resmi olmayan bir şekilde kullanılması gerekir. matematiksel analiz ondan sapmalar.

Ancak tahminin gerçek uygulamasında

P\!\left\(\,\vline\,\frac(\mu)(n)-p\,\vline\,<0,\!02\right\}>0,\!9999.


n sayıda testten oluşan tek bir seri için bazı simetri hususlarına da güveniyoruz: eşitsizlik (10), çok sayıda N seri ile ilişkinin (7) vakaların en az %99,99'unda karşılanacağını gösterir; Eğer bu serinin işaretlenmemiş diğer seriler arasında sıradan bir pozisyon işgal ettiğine inanmak için nedenimiz varsa, bizi ilgilendiren belirli n test serisinde özellikle eşitsizliğin (7) gerçekleşeceğini büyük bir güvenle beklemek doğaldır. özel bir şey tarafından.

Çeşitli pratik durumlarda genellikle ihmal edilen olasılıklar farklıdır. Yukarıda zaten belirtilmişti ki, atanan görevin tamamlanmasını garanti eden mermi tüketiminin yaklaşık hesaplamaları yapılırken, atanan görevin 0,95 olasılıkla çözüldüğü mermi tüketimi oranından memnunlar, yani olasılıkları ihmal ediyorlar 0,05'i aşıyor. Bu, örneğin yalnızca 0,01'den küçük olasılıkların ihmal edilmesine dayalı hesaplamalara geçişin, mermi tüketim oranlarında büyük bir artışa, yani neredeyse birçok durumda, tamamlamanın imkansız olduğu sonucuna varılmasına yol açacağı gerçeğiyle açıklanmaktadır. görevin bu kadar kısa sürede gerçekleştirilmesi veya fiilen kullanılabilecek mermilerin temini ile.

Bazen bilimsel araştırmalarda bunlar 0,05'lik olasılıkların ihmal edilmesi temelinde hesaplanan istatistiksel tekniklerle sınırlıdır. Ancak bu yalnızca daha kapsamlı materyal toplamanın çok zor olduğu durumlarda yapılmalıdır. Bu tür tekniklerin bir örneği olarak aşağıdaki problemi düşünün. Bir hastalığı tedavi etmek için kullanılan bir ilacın, belirli koşullar altında, olumlu sonuç%50, yani 0,5 olasılıkla. Yeni bir ilaç öneriliyor ve eskisine üstünlüğünü test etmek amacıyla, eski ilacın etkinliği kanıtlanmış hastalarla aynı durumdaki hastalar arasından tarafsız olarak seçilecek on vakada kullanılması planlanıyor. %50'de. Yeni bir ilacın avantajının, on vakadan en az sekizinde olumlu sonuç vermesi durumunda kanıtlanmış sayılacağı tespit edildi. Böyle bir kararın, hatalı bir sonuca (yani, eskisine eşdeğer veya hatta ondan daha kötü olmasına rağmen yeni bir ilacın faydalarının kanıtlanmış olduğu sonucu) ulaşma olasılığının ihmal edilmesiyle ilişkili olduğunu hesaplamak kolaydır. 0.05. Aslında, on denemenin her birinde olumlu sonuç alma olasılığı p'ye eşitse, o zaman on denemede sırasıyla 10,9 veya 8 olumlu sonuç alma olasılığı da eşittir.

P_(10)=p^(10),\qquad P_9=10p^9(1-p),\qquad P_8=45p^8(1-p)^2.

Özetle, p=\frac(1)(2) durumu için şunu elde ederiz: P=P_(10)+P_9+P_8=\frac(56)(1024)\approx0,\!05.

Bu nedenle, yeni ilacın aslında eskisine tam olarak eşdeğer olduğunu varsayarsak, yaklaşık 0,05 olasılıkla yeni ilacın eskisine göre daha üstün olduğu sonucuna varma hatasına düşme riskiyle karşı karşıya kalırız. Bu olasılığı yaklaşık 0,01'e düşürmek için, deneme sayısını n = 10 artırmadan, yeni bir ilacın avantajının ancak kullanımı en az dokuz vakada pozitif sonuç verdiğinde kanıtlanmış sayılacağını belirlemek gerekli olacaktır. on. Eğer bu gereklilik yeni ilacı destekleyenlere çok sert geliyorsa, o zaman n test sayısına 10'dan önemli ölçüde daha fazla değer atanması gerekecektir. Örneğin, n = 100 ile yeni ilacın faydalarının artacağı tespit edilirse \mu>65'te kanıtlanmış kabul edilirse, hata olasılığı yalnızca P\approx0,\!0015 olacaktır.

Ciddi durum için norm 0,05 ise bilimsel araştırma açıkça yetersizse, astronomik gözlemlerin işlenmesi gibi akademik ve kapsamlı araştırmalarda bile 0,001 veya 0,003'lük bir hata olasılığı genellikle ihmal edilir. Bununla birlikte, bazen olasılık yasalarının uygulanmasına dayanan bilimsel sonuçlar da önemli ölçüde daha fazla güvenilirliğe sahiptir (yani, önemli ölçüde daha düşük olasılıkların göz ardı edilmesine dayanmaktadırlar). Bu konu aşağıda daha detaylı tartışılacaktır.

Ele alınan örneklerde, binom formülünün (6) özel durumlarını defalarca kullandık.

P_m=C_n^mp^m(1-p)^(n-m)

P_m olasılığı için n için tam olarak m pozitif sonuç elde etme olasılığı bağımsız testler, her birinde olumlu bir sonucun olasılığı p'dir. Bu formülü kullanarak bu bölümün başında olasılık ile ilgili sorulan soruyu ele alalım.

<\varepsilon\right\},

burada \mu olumlu sonuçların gerçek sayısıdır. Açıkçası, bu olasılık, m'nin eşitsizliği sağladığı P_m'lerin toplamı olarak yazılabilir.

\vline\,\frac(m)(n)-p\,\vline\,<\varepsilon,


yani formda

P=\toplam_(m=m_1)^(m_2)P_m,

burada m_1, eşitsizliği (12) karşılayan m değerlerinin en küçüğüdür ve m_2, bu m'nin en büyüğüdür.

Herhangi bir büyük n için formül (13) doğrudan hesaplamalarda pek kullanışlı değildir. Bu nedenle, Moivre'nin p=\frac(1)(2) durumu için ve Laplace'ın asimptotik bir formülün herhangi bir p'si için keşfi çok önemliydi, bu da büyük P_m olasılıklarının davranışını bulmayı ve incelemeyi çok kolaylaştırıyor N. Bu formül şuna benziyor

P\sim\frac(1)(\sqrt(2\pi np(1-p)))\exp\!\left[-\frac((m-np)^2)(2np(1-p)) \Sağ].

Eğer p sıfıra veya bire çok yakın değilse, o zaman 100 düzeyindeki n için zaten yeterince doğrudur.

T=\frac(m-np)(\sqrt(np(1-p))),

Daha sonra formül (14) şu formu alacaktır:

P\sim\frac(1)(\sqrt(2\pi np(1-p)))\,e^(-t^2/2).


(13) ve (16)'dan olasılığın yaklaşık bir temsilini elde edebiliriz (11)

P\sim\frac(1)(\sqrt(2\pi))\int\limits_(-T)^(T)e^(-t^2/2)\,dt=F(T),


Nerede

T=\varepsilon\sqrt(\frac(n)(p(1-p)))

(17)'de sol ve sağ taraflar arasındaki fark, p sabit ve sıfır ve birden farklı olduğunda, \varepsilon'a göre n\to\infty kadar düzgün bir şekilde sıfıra yönelir. F(T) fonksiyonu için detaylı tablolar derlenmiştir. İşte onlardan kısa bir alıntı

\begin(array)(c|c|c|c|c)T&1&2&3&4\\\hline F&0,\!68269&0,\!95450&0,\!99730&0,\!99993\end(array)


T\infty'de F(T) fonksiyonunun değeri birlik olma eğilimindedir.

Olasılığı tahmin etmek için formül (17)'yi kullanalım

P=\mathbf(P)\!\left\(\,\vline\,\frac(\mu)(n)-p\,\vline\,<0,\!02\right\}\approx F\!\left(\frac{2}{\sqrt{p(1-p)}}\right) en n=10\,000,~\varepsilon=0,\!02, Çünkü T=\frac(2)(\sqrt(p(1-p))).

F(T) fonksiyonu artan T ile monoton olarak arttığından, p'den bağımsız olarak daha düşük bir P tahmini için, T'nin mümkün olan en küçük (farklı p için) değerini almamız gerekir. Bu en küçük değer p=\frac(1)(2) noktasında elde edilecek ve 4'e eşit olacaktır. Dolayısıyla yaklaşık olarak

P\geqslant F(4)=0,\!99993.

Eşitsizlik (19), formül (17)'nin yaklaşık niteliğinden dolayı ortaya çıkan hatayı hesaba katmaz. Bu durumla ilgili hatayı değerlendirerek her durumda P>0.\!9999 olduğunu tespit edebiliriz.

Formül (17)'nin uygulanmasına ilişkin dikkate alınan örnekle bağlantılı olarak, olasılık teorisi üzerine teorik çalışmalarda verilen formül (17)'nin geri kalan dönemine ilişkin tahminlerin uzun süre tatmin edici olmadığı belirtilmelidir. Bu nedenle, formül (17) ve benzerlerinin çok büyük olmayan n veya 0 veya 1'e çok yakın p olasılıkları (ve bu tür olasılıklar birçok durumda özellikle önemlidir) için hesaplamalara uygulanması genellikle yalnızca bu tür olasılıkları kontrol etme deneyimine dayanıyordu. Sınırlı sayıda örnek için sonuçlar ve olası hatanın güvenilir bir şekilde belirlenmiş tahminlerine göre değil. Ek olarak daha ayrıntılı bir çalışma, pratik olarak önemli birçok durumda yukarıdaki asimptotik formüllerin yalnızca kalan terimin tahminine değil, aynı zamanda açıklamaya da ihtiyaç duyduğunu gösterdi (çünkü böyle bir açıklama olmadan kalan terim çok büyük olur). Her iki yönde de en eksiksiz sonuçlar S. N. Bernstein'a aittir.

Bağıntılar (11), (17) ve (18) şu şekilde yeniden yazılabilir:

\mathbf(P)\!\left\(\,\vline\,\frac(\mu)(n)-p\,\vline\,

Yeterince büyük t için, formülün (20) n'yi içermeyen sağ tarafı keyfi olarak birliğe, yani tam güvenirliğe karşılık gelen olasılık değerine yakındır. Bu nedenle şunu görüyoruz: Kural olarak, \frac(\mu)(n) frekansının p olasılığından sapmaları şu mertebededir: \frac(1)(\sqrt(n)). Olasılık yasalarının eyleminin doğruluğunun gözlem sayısının kareköküne oranı, diğer birçok konu için tipiktir. Hatta bazen, biraz basitleştirilmiş bir popülerleştirme olarak, olasılık teorisinin temel yasası olarak “n'nin karekökü yasası”ndan söz ediyorlar. Bu fikir, büyük Rus matematikçi P. L. Chebyshev'in, çeşitli olasılık problemlerini, "rastgele değişkenlerin" toplamları ve aritmetik ortalamaları için "matematiksel beklentiler" ve "varyanslar" hesaplamalarına azaltma yönteminin sistematik kullanımına dahil edilmesi sayesinde tam bir netlik kazandı.

Rastgele değişken verilen koşullar altında S, belirli olasılıklarla farklı değerler alabilen bir niceliktir. Bizim için yalnızca sonlu sayıda farklı değer alabilen rastgele değişkenleri dikkate almak yeterlidir. Dedikleri gibi belirtmek için, olasılık dağılımı Bu tür bir rastgele değişkenin \xi olası değerlerini belirtmek yeterlidir x_1,x_2,\ldots,x_r ve olasılıklar

P_r=\mathbf(P)\(\xi=x_r\).


Özetle, \xi miktarının tüm farklı olası değerleri için bu olasılıklar her zaman bire eşittir:

\sum_(r=1)^(s)P_r=1.

Rastgele değişkene bir örnek, yukarıda n denemede incelenen pozitif sonuçların sayısı \mu'dur.

Matematiksel beklenti\xi miktarına ifade denir

M(\xi)=\toplam_(r=1)^(s)P_rx_r,


A dağılım\xi miktarlarına, \xi-M(\xi) sapmasının karesinin matematiksel beklentisi denir, yani ifade

D(\xi)=\sum_(r=1)^(s)P_r(x_r-M(\xi))^2.


Varyansın karekökü

\sigma_(\xi)=\sqrt(D(\xi))=\sqrt(\sum_(r=1)^(s)P_r(x_r-M(\xi))^2)


isminde standart sapma(matematiksel beklentisinden elde edilen değerler M(\xi) ).

Varyansların ve standart sapmaların en basit uygulamaları ünlü Chebyshev eşitsizliği

\mathbf(P)\(|\xi-M(\xi)|\leqslant t_(\sigma_(\xi))\)\geqslant1-\frac(1)(t^2),

Bu, bir rastgele değişkenin \xi matematiksel beklentisinden M(\xi) standart sapmayı \sigma_(\xi) önemli ölçüde aşan sapmalarının nadir olduğunu göstermektedir.

Rastgele değişkenlerin toplamlarını oluştururken \xi=\xi^((1))+ \xi^((2))+\cdots+\xi^((n)) matematiksel beklentileri her zaman eşit olur

M(\xi)=M(\xi^((1))))+M(\xi^((2)))+\cdots+M(\xi^((n))).


Varyanslar için benzer bir eşitlik

D(\xi)=D(\xi^((1)))+D(\xi^((2)))+\cdots+D(\xi^((n))).

yalnızca belirli kısıtlamalar altında doğrudur. Eşitliğin (23) geçerli olması için, örneğin, farklı sayılara sahip \xi^((i)) ve \xi^((j)) niceliklerinin, dedikleri gibi, ile "ilişkili" olmaması yeterlidir. yani eşitlik sağlandığında

M\Bigl\((\xi^((i))-M(\xi^((i))))(\xi^((j))-M(\xi^((j))))\ Büyük\)=0

Rasgele değişkenler \xi^((i)) ve \xi^((j)) arasındaki korelasyon katsayısı şu ifadedir:

R=\frac(M\Bigl\(\Bigl(\xi^((i))-M(\xi^((i)))\Bigl)\Bigl(\xi^((j))-M( \xi^((j))\Bigl)\Bigl\))(\sigma_(\xi^((i)))\,\sigma_(\xi^((j))))).

Eğer \sigma_(\xi^((i)))>0 V \sigma_(\xi^((j)))>0 ise koşul (24), R=0 gerçeğine eşdeğerdir.

Korelasyon katsayısı R, rastgele değişkenler arasındaki bağımlılık derecesini karakterize eder. Her zaman |R|\leqslant1 ve R=\pm1 yalnızca doğrusal bir bağlantı varsa

\eta=a\xi+b\quad(a\ne0).

Bağımsız değişkenler için R=0.

Özellikle, \xi^((i)) ve \xi^((j)) miktarları birbirinden bağımsızsa eşitlik (24) sağlanır. Bu nedenle, karşılıklı olarak bağımsız terimler için eşitlik (23) her zaman geçerlidir. Aritmetik ortalamalar için

\zeta=\frac(1)(n)\Bigl(\xi^((1))+\xi^((2))+\cdots+\xi^((n))\Bigl)(23)'ten şu şekilde çıkıyor

D(\zeta_=\frac(1)(n^2)\Bigl(D(\xi^((1)))+ D(\xi^((2)))+\cdots+ D(\xi^( (n))))\Bigl).

Şimdi tüm terimler için varyansların belirli bir sabit değeri aşmadığını varsayalım.

D(\xi^((i)))\leqslant C^2. Daha sonra (25) D(\zeta)\leqslant\frac(C^2)(n),


ve herhangi bir t için Chebyshev eşitsizliği sayesinde

\mathbf(P)\!\left\(|\zeta-M(\zeta)|\leqslant\frac(tC)(\sqrt(n))\right\)\geqslant1-\frac(1)(t^ 2)

Eşitsizlik (26), Chebyshev tarafından oluşturulan biçimde büyük sayılar yasasını içerir: eğer \xi^((i)) miktarları karşılıklı olarak bağımsızsa ve sınırlı varyansa sahipse, o zaman n arttıkça bunların aritmetik ortalamaları \zeta daha az olur ve matematiksel beklentilerinden belirgin şekilde sapma olasılıkları daha düşüktür M(\zeta) .

Daha doğrusu şunu söylüyorlar rastgele değişkenler dizisi

\xi^((1)),\,\xi^((2)),\,\ldots\,\xi^((n)),\,\ldots


karşılık gelen aritmetik ortalama \zeta ve herhangi bir sabit \varepsilon>0 için ise büyük sayılar kanununa uyar

\mathbf(P)\(|\zeta-M(\zeta)|\leqslant \varepsilon\)\to1\quad (n\to\infty).

Eşitsizlikten (26) limit ilişkisini (27) elde etmek için, şunu ayarlamak yeterlidir:

T=\varepsilon\cdot\frac(\sqrt(n))(C).

A.A.'nın çok sayıda çalışması. Markova, S.N. Bernstein, A.Ya. Khinchin ve diğerleri kendilerini mümkün olan şey sorusuna adamıştır. daha fazla genişleme Limit ilişkisinin (27) uygulanabilirliği için koşullar, yani büyük sayılar yasasının uygulanabilirliği için koşullar. Bu çalışmalar temel önemdedir. Ancak daha da önemlisi \zeta-M(\zeta) sapmalarının olasılık dağılımının doğru bir şekilde incelenmesidir.

Rusların büyük değeri klasik okul Olasılık teorisinde amaç, çok geniş koşullar altında eşitliğin asimptotik olduğu (yani sınırsız büyüyen n için artan doğrulukla) gerçeğini ortaya koymaktır.

\mathbf(P)\!\left\(t_1\sigma_(\zeta)<\zeta-M(\zeta)

Chebyshev, bağımsız ve sınırlı terimler durumu için bu formülün neredeyse eksiksiz bir kanıtını verdi. Markov, Chebyshev'in akıl yürütmesindeki eksik halkayı doldurdu ve formül (28)'in uygulanabilirliğine ilişkin koşulları genişletti. Lyapunov tarafından daha da genel koşullar verildi. Formül (28)'in bağımlı terimlerin toplamlarına genişletilmesi sorunu S. N. Bernstein tarafından özellikle eksiksiz bir şekilde incelenmiştir.

Formül (28) o kadar çok sayıda özel problemi kapsıyordu ki uzun süre olasılık teorisinin merkezi limit teoremi olarak anıldı. Olasılık teorisinin en son gelişmesiyle birlikte bir dizi daha genel yasaya dahil olduğu ortaya çıkmasına rağmen, günümüzde bunun önemini abartmak zordur.

Zaman.

Terimler bağımsız ve varyansları aynı ve eşit ise: D(\xi^((i)))=\sigma^2, o zaman (25) ilişkisini dikkate alarak formül (28)'i vermek uygundur;

\mathbf(P)\!\left\(\frac(t_1\sigma)(\sqrt(n))<\zeta-M(\zeta)<\frac{t_2\sigma}{\sqrt{n}}\right\}\sim\frac{1}{\sqrt{2\pi}}\int\limits_{t_1}^{t_2}e^{-t^2/2}\,dt\,.

(29) ilişkisinin, daha önce ele aldığımız p olasılığından \frac(\mu)(n) frekansının sapmaları problemine bir çözüm içerdiğini gösterelim. Bunu yapmak için, onları aşağıdaki koşulla tanımlayan rastgele değişkenleri \xi^((i)) tanıtıyoruz:

\xi^((i))=0, eğer i'inci test negatif sonuç verdiyse,

\xi^((i))=1 eğer i'inci test pozitif sonuç verdiyse.

O zaman bunu kontrol etmek kolaydır


ve formül (29) şunu verir

\mathbf(P)\!\left\(t_1\sqrt(\frac(p(1-p))(n))<\frac{\mu}{n}-p
bu da t_1=-t,~t_2=t için yine formül (20)'ye yol açar.
Ayrıca bkz. Olasılık teorisindeki Limit teoremleri Tarayıcınızda Javascript devre dışı.
Hesaplamaları gerçekleştirmek için ActiveX kontrollerini etkinleştirmelisiniz!

1. /PB-MS-teorisi/Lectures-1(4p.).doc
2. /PB-MS-teorisi/Lectures-2 (4 s.).doc
3. /PB-MS-teorisi/Lectures-3(4p.).doc
4. /PB-MS-teorisi/Lectures-4(4p.).doc
5. /PB-MS-teorisi/İçerikler.doc
Ders 1
Ders 19. İstatistiksel hipotezlerin istatistiksel olarak test edilmesi. Hipotez testinin genel ilkeleri. İstatistiksel hipotez kavramları (basit ve karmaşık), boş ve rakip hipotezler,
Büyük sayılar kanunu. Chebyshev eşitsizliği. Chebyshev ve Bernoulli Teoremleri
Konu anlatımı Kesikli ve sürekli rastgele değişkenlerin temel sayısal özellikleri: matematiksel beklenti, dağılım ve standart sapma. Özellikleri ve örnekleri
Ders Olasılık teorisinin konusu. Rastgele olaylar. Olayların cebiri. Rastgele bir olayın bağıl frekansı ve olasılığı. Etkinlik grubunu tamamlayın. Olasılığın klasik tanımı. Olasılığın temel özellikleri. Kombinatoriklerin temel formülleri

Ders 13.

Büyük sayılar kanunu. Chebyshev eşitsizliği. Chebyshev ve Bernoulli Teoremleri.
İstatistiksel kalıpların incelenmesi, belirli koşullar altında çok sayıda rastgele değişkenin toplam davranışının neredeyse rastgele karakterini kaybettiğini ve doğal hale geldiğini (başka bir deyişle, bazı ortalama davranışlardan rastgele sapmaların birbirini iptal ettiğini) tespit etmeyi mümkün kılmıştır. ). Özellikle, eğer bireysel terimlerin toplamı üzerindeki etki eşit derecede küçükse, toplamın dağılım yasası normale yaklaşır. Bu ifadenin matematiksel formülasyonu, adı verilen bir grup teoremde verilmiştir. büyük sayılar kanunu.

Chebyshev eşitsizliği.
Diğer teoremleri kanıtlamak için kullanılan Chebyshev eşitsizliği hem sürekli hem de kesikli rastgele değişkenler için geçerlidir. Bunu kesikli rastgele değişkenler için kanıtlayalım.
Teorem 13.1 (Chebyshev eşitsizliği). P( | XM(X)| D( X) / ε². (13.1)

Kanıt. İzin vermek X dağıtım serisi tarafından verilir


X

X 1

X 2



X P

R

R 1

R 2



R P

Olaylardan bu yana | XM(X)| X M(X)| ≥ ε zıttır, o zaman R (|XM(X)| p(| XM(X)| ≥ ε) = 1, dolayısıyla, R (|XM(X)| p(| XM(X)| ≥ ε). Bulacağız R (|XM(X)| ≥ ε).

D(X) = (X 1 – M(X))² P 1 + (X 2 – M(X))² P 2 + … + (X N M(X))² P N . Bu toplamın dışında, | XM(X)| k şartlar. Daha sonra

D(X) ≥ (X k + 1 – M(X))² P k + 1 + (X k + 2 – M(X))² P k +2 + … + (X N M(X))² P N ≥ ε² ( P k + 1 + P k + 2 + … + P N).

Dikkat P k + 1 + P k + 2 + … + P N bir ihtimal var | XM(X)| ≥ ε, çünkü bu tüm olası değerlerin olasılıklarının toplamıdır X, bunun için bu eşitsizlik doğrudur. Buradan, D(X) ≥ ε² R(|XM(X)| ≥ ε) veya R (|XM(X)| ≥ ε) ≤ D(X) / ε². O halde tam tersi olayın olasılığı P( | XM(X)| D( X) / ε², kanıtlanması gereken şey buydu.
Chebyshev ve Bernoulli Teoremleri.

Teorem 13.2 (Chebyshev teoremi). Eğer X 1 , X 2 ,…, X P– varyansları eşit şekilde sınırlı olan ikili bağımsız rastgele değişkenler ( D(X Ben) ≤ C), o zaman keyfi olarak küçük bir sayı için ε eşitsizlik olasılığı

Rasgele değişkenlerin sayısı yeterince büyükse keyfi olarak 1'e yakın olacaktır.

Yorum. Başka bir deyişle, bu koşullar yerine getirilirse

Kanıt. Yeni bir rastgele değişken düşünün
ve matematiksel beklentisini bulun. Matematiksel beklentinin özelliklerini kullanarak bunu elde ederiz. Başvurmak Chebyshev eşitsizliği: Söz konusu rastgele değişkenler bağımsız olduğundan, teoremin koşullarını dikkate alarak şunu elde ederiz: Bu sonucu kullanarak önceki eşitsizliği şu şekilde sunuyoruz:

Hadi sınıra gidelim
: Olasılık 1'den büyük olamayacağından şu şekilde ifade edilebilir:

Teorem kanıtlandı.
Sonuçlar.

Eğer X 1 , X 2 , …, X P– eşit olarak sınırlı varyanslara sahip, aynı matematiksel beklentiye eşit olan ikili bağımsız rastgele değişkenler A, bu durumda herhangi bir keyfi küçük ε > 0 için eşitsizlik olasılığı
Rasgele değişkenlerin sayısı yeterince büyükse 1'e istenildiği kadar yakın olacaktır. Başka bir deyişle,
.

Çözüm: Yeterince fazla sayıda rastgele değişkenin aritmetik ortalaması, matematiksel beklentilerinin toplamına yakın değerler alır, yani rastgele değişken karakterini kaybeder. Örneğin, herhangi bir fiziksel niceliğe ilişkin bir dizi ölçüm gerçekleştiriliyorsa ve: a) her ölçümün sonucu diğerlerinin sonuçlarına bağlı değilse, yani tüm sonuçlar ikili olarak bağımsız rastgele değişkenlerdir; b) Ölçümlerin sistematik hata olmadan yapılması (matematiksel beklentileri birbirine eşit ve gerçek değere eşit olması) Aölçülen miktar); c) belirli bir ölçüm doğruluğu sağlanır, dolayısıyla söz konusu rastgele değişkenlerin dağılımları eşit şekilde sınırlıdır; daha sonra, yeterince fazla sayıda ölçümle, bunların aritmetik ortalamaları, ölçülen miktarın gerçek değerine keyfi olarak yakın olacaktır.
Bernoulli teoremi.
Teorem 13.3 (Bernoulli teoremi). Eğer her birinde P bağımsız deney olasılığı R bir olayın meydana gelmesi A sabitse, yeterince fazla sayıda testle, olayların bağıl sıklığının sapma modülünün olasılığı A V P gelen deneyler Rİstenildiği kadar küçük, istenildiği kadar 1'e yakın olacaktır:

(13.2)

Kanıt. Rastgele değişkenleri tanıtalım X 1 , X 2 , …, X P, Nerede X Ben görünüşe sayısı A V Ben-tecrübem. burada X Ben yalnızca iki değer alabilir: 1 (olasılıkla R) ve 0 (olasılıkla Q = 1 – P). Ek olarak, ele alınan rastgele değişkenler ikili olarak bağımsızdır ve varyansları düzgün şekilde sınırlıdır (çünkü D(X Ben) = pq, P + Q = 1, nereden pq ≤ ¼). Sonuç olarak Chebyshev teoremi bunlara uygulanabilir. M Ben = P:

.

Ancak
, Çünkü X Ben olduğunda 1 değerini alır A Belirli bir deneyde ve eğer 0'a eşit bir değer A Olmadı. Böylece,

Q.E.D.
Yorum. Bernoulli teoreminden bunu yapma, Ne
Bu sadece olasılıklar bağıl frekans ile mutlak olasılık arasındaki farkın keyfi olarak küçük olabileceği. Aradaki fark şu şekildedir: Matematiksel analizde dikkate alınan olağan yakınsama ile, her şey için P, bir değerden başlayarak eşitsizlik
her zaman idam edildi; bizim durumumuzda böyle değerler olabilir P, bu eşitsizlik doğru değil. Bu tür yakınsamaya denir olasılıkta yakınsama.

Ders 14.

Lyapunov'un merkezi limit teoremi. Moivre-Laplace limit teoremi.
Büyük sayılar kanunu, rastgele değişkenlerin toplamının dağılım limit kanununun şeklini incelemez. Bu soru, adı verilen bir grup teorem içinde ele alınmaktadır. Merkezi Limit Teoremi. Her biri farklı dağılımlara sahip olabilen rastgele değişkenlerin toplamının dağılım yasasının, terim sayısı yeterince büyük olduğunda normale yaklaştığını ileri sürmektedirler. Bu, normal hukukun pratik uygulamalar için önemini açıklamaktadır.
Karakteristik fonksiyonlar.

Merkezi limit teoremini kanıtlamak için karakteristik fonksiyonlar yöntemi kullanılır.
Tanım 14.1.Karakteristik fonksiyon rastgele değişken Xçağrılan fonksiyon

G(T) = M (e itX ) (14.1)

Böylece, G (T) bazı karmaşık rastgele değişkenlerin matematiksel beklentisini temsil eder sen = e itX, değerle ilişkili X. Özellikle eğer X bir dağılım serisi tarafından belirtilen ayrık bir rastgele değişkendir, o zaman

. (14.2)

Dağıtım yoğunluğuna sahip sürekli bir rastgele değişken için F(X)

(14.3)

Örnek 1. Let X– bir zar atımıyla elde edilen 6 puanın sayısı. Daha sonra formül (14.2)'ye göre G(T) =

Örnek 2. Normal yasaya göre dağıtılan normalleştirilmiş sürekli rastgele değişken için karakteristik fonksiyonu bulun
. Formül (14.3)'e göre (formülü kullandık)
Ve ne Ben² = -1).

Karakteristik fonksiyonların özellikleri.
1. İşlev F(X) bilinen fonksiyon kullanılarak bulunabilir G(T) formüle göre

(14.4)

(dönüşüm (14.3) denir Fourier dönüşümü ve dönüşüm (14.4) – ters Fourier dönüşümü).

2. Rastgele değişkenler ise X Ve e ilişkiyle ilgili e = balta, o zaman karakteristik fonksiyonları ilişkiyle ilişkilidir.

G sen (T) = G X (en). (14.5)

3. Bağımsız rastgele değişkenlerin toplamının karakteristik fonksiyonu, terimlerin karakteristik fonksiyonlarının çarpımına eşittir: için

(14.6)
Teorem 14.1 (aynı şekilde dağıtılan terimler için merkezi limit teoremi). Eğer X 1 , X 2 ,…, X P,… - aynı dağılım yasasına sahip bağımsız rastgele değişkenler, matematiksel beklenti T ve varyans σ 2, ardından sınırsız artışla P toplam dağıtım kanunu
sonsuza kadar normale yaklaşır.

Kanıt.

Sürekli rastgele değişkenler için teoremi kanıtlayalım X 1 , X 2 ,…, X P(ayrık miktarlar için kanıt benzerdir). Teoremin koşullarına göre terimlerin karakteristik fonksiyonları aynıdır:
Daha sonra, özellik 3'e göre toplamın karakteristik fonksiyonu e N irade
Fonksiyonu genişletelim G X (T) Maclaurin serisinde:

, Nerede
en
.

Bunu varsayarak T= 0 (yani orijini noktaya taşıyın) T), O
.

(Çünkü T= 0). Elde edilen sonuçları Maclaurin formülünde yerine koyarsak şunu buluruz:

.

Yeni bir rastgele değişken düşünün
, dan farklı e N herhangi bir dağılım için P 0'a eşittir. e N Ve Z N doğrusal bir ilişkiyle ilişkili olduğunu kanıtlamak yeterlidir. Z N normal bir yasaya göre dağıtılır veya aynı şey olan karakteristik fonksiyonu, normal bir yasanın karakteristik fonksiyonuna yaklaşır (bkz. örnek 2). Karakteristik fonksiyonların özelliğine göre

Ortaya çıkan ifadenin logaritmasını alalım:

Nerede

Haydi ayrıştıralım
arka arkaya P→ ∞, kendimizi açılımın iki terimiyle sınırlandırırsak ln(1 - k) ≈ - k. Buradan

Son limitin 0 olduğu yer, çünkü . Buradan,
, yani
- normal dağılımın karakteristik fonksiyonu. Yani terim sayısında sınırsız bir artışla miktarın karakteristik fonksiyonu Z N normal yasanın karakteristik işlevine sınırsız bir şekilde yaklaşır; bu nedenle dağıtım kanunu Z N (Ve e N) sınırsız normale yaklaşır. Teorem kanıtlandı.

A.M Lyapunov daha genel bir formdaki koşullar için merkezi limit teoremini kanıtladı:
Teorem 14.2 (Lyapunov teoremi). Rastgele değişken ise X aşağıdaki koşulun karşılandığı çok sayıda karşılıklı bağımsız rastgele değişkenin toplamıdır:

, (14.7)

Nerede B k – üçüncü mutlak merkezi büyüklük momenti X İle, A D k o zaman onun varyansı X normale yakın bir dağılıma sahiptir (Lyapunov koşulu, her terimin toplam üzerindeki etkisinin ihmal edilebilir olduğu anlamına gelir).
Pratikte, olasılıksal hesaplamalar nispeten düşük doğruluk gerektirdiğinden, merkezi limit teoremini yeterince az sayıda terimle kullanmak mümkündür. Deneyimler, on veya daha az terimin toplamı için dağılım yasasının normal bir yasayla değiştirilebileceğini göstermektedir.

Ayrık rastgele değişkenler için merkezi limit teoreminin özel bir durumu Moivre-Laplace teoremidir.

Teorem 14.3 (Moivre-Laplace teoremi). Üretilirse P bağımsız deneyler; her birinde bir olay A olasılıkla ortaya çıkar R ise aşağıdaki ilişki geçerlidir:

(14.8)

Nerede e – olayın gerçekleşme sayısı A V P deneyler, Q = 1 – P.

Kanıt.

Bunu varsayacağız
, Nerede X Ben– olayın gerçekleşme sayısı A V Ben-tecrübem. Daha sonra rastgele değişken
(bkz. Teorem 14.1) normal olarak dağıtılmış ve normalleştirilmiş olarak kabul edilebilir, bu nedenle (α, β) aralığına düşme olasılığı formülle bulunabilir.

Çünkü e binom dağılımına sahiptir. Daha sonra
. Bu ifadeyi önceki formülde yerine koyarsak eşitlik (14.8) elde ederiz.

Sonuçlar.

Moivre-Laplace teoreminin koşulları altında olasılık
olay A içinde görünecek P tam olarak deneyler k kez, çok sayıda deneyle aşağıdaki formül kullanılarak bulunabilir:

(14.9)

Nerede
, A
(bu fonksiyonun değerleri özel tablolarda verilmiştir).

Örnek 3. 100 yazı tura atıldığında arma sayısının 40 ila 60 arasında olma olasılığını bulun.

Bunu dikkate alarak formül (14.8)'i uygulayalım. P= 0,5. Daha sonra vesaire= 100·0,5 = 50, O halde, eğer
Buradan,

Örnek 4. Önceki örneğin koşulları altında 45 arma ortaya çıkma olasılığını bulun.

Bulacağız
, Daha sonra

Ders 15.

Matematiksel istatistiğin temel kavramları. Nüfus ve örnek. Varyasyon serileri, istatistiksel seriler. Gruplandırılmış örnek. Gruplandırılmış istatistiksel seriler. Frekans poligonu. Örnek dağılım fonksiyonu ve histogram.
Matematiksel istatistik, gözlemler sonucunda elde edilen istatistiksel verilerin işlenmesine dayanarak kütlesel rastgele olayların tabi olduğu örüntülerin oluşturulmasıyla ilgilenir. Matematiksel istatistiğin iki ana görevi şunlardır:

Bu istatistiklerin nasıl toplanıp gruplandırılacağının belirlenmesi;

Çalışmanın amaçlarına bağlı olarak elde edilen verileri analiz etmek için yöntemlerin geliştirilmesi:

a) bir olayın bilinmeyen olasılığının değerlendirilmesi; bilinmeyen dağılım fonksiyonunun tahmini; türü bilinen dağıtım parametrelerinin tahmini; diğer rastgele değişkenlere vb. bağımlılığın değerlendirilmesi;

b) bilinmeyen dağılımın türü veya bilinen bir dağılımın parametrelerinin değerleri hakkında istatistiksel hipotezlerin test edilmesi.

Bu problemleri çözmek için, bu nesnelerin çalışılan özelliklerine ilişkin bir tahminde bulunmanın mümkün olduğu çalışma sonuçlarına dayanarak, geniş bir homojen nesne kümesinden sınırlı sayıda nesne seçmek gerekir.

Matematiksel istatistiğin temel kavramlarını tanımlayalım.

Nüfus – mevcut nesnelerin tamamı.

Örnek– genel popülasyondan rastgele seçilen bir dizi nesne.

Popülasyon boyutuN ve örneklem büyüklüğüN – dikkate alınan popülasyondaki nesnelerin sayısı.

Örnekleme türleri:

Tekrarlandı– seçilen her nesne, bir sonrakini seçmeden önce genel popülasyona geri gönderilir;

Tekrarsız– seçilen nesne genel popülasyona geri gönderilmez.
Yorum. Numunenin incelenmesinden bizi ilgilendiren genel popülasyonun özelliğinin davranışı hakkında sonuçlar çıkarabilmek için, numunenin genel popülasyonun oranlarını doğru bir şekilde temsil etmesi, yani temsilci(temsilci). Büyük sayılar kanunu dikkate alındığında, her nesnenin rastgele seçilmesi durumunda bu koşulun sağlandığı ve herhangi bir nesnenin örneğe dahil edilme olasılığının aynı olduğu ileri sürülebilir.
Sonuçların birincil işlenmesi.

İlgilendiğimiz rastgele değişkene izin verin Xörnekteki değeri alır X 1 P 1 kez, X 2 – P 2 kez, …, X İle - P İle zamanlar ve
Nerede P- örnek boyut. Daha sonra rastgele değişkenin gözlenen değerleri X 1 , X 2 ,…, X İle isminde seçenekler, A P 1 , P 2 ,…, P İlefrekanslar. Her frekansı örnek boyutuna bölersek, şunu elde ederiz: bağıl frekanslar
Artan sırada yazılan seçenekler dizisine denir varyasyonel yanında seçeneklerin bir listesi ve bunlara karşılık gelen frekanslar veya göreceli frekanslar - istatistiksel seri:


X Ben

X 1

X 2



X k

N Ben

N 1

N 2



N k

w Ben

w 1

w 2



w k

10 zar atışından oluşan 20 seri gerçekleştirildiğinde, altı puanın sayısı 1,1,4,0,1,2,1,2,2,0,5,3,3,1,0,2 oldu, 2,3 ,4,1 Bir varyasyon serisi yapalım: 0,1,2,3,4,5. Mutlak ve bağıl frekanslara ilişkin istatistiksel seri şu şekildedir:


X Ben

0

1

2

3

4

5

N Ben

3

6

5

3

2

1

w Ben

0,15

0,3

0,25

0,15

0,1

0,05

Sürekli bir özellik inceleniyorsa varyasyon serisi çok büyük sayıda sayıdan oluşabilir. Bu durumda kullanmak daha uygundur gruplandırılmış örnek. Bunu elde etmek için, özelliğin gözlemlenen tüm değerlerini içeren aralık, birkaç eşit kısmi uzunluk aralığına bölünür. H ve ardından her kısmi aralığı bulun N Ben– dahil edilen varyantın frekanslarının toplamı Ben aralık. Bu sonuçlardan derlenen tabloya denir gruplandırılmış istatistiksel seriler:

Frekans poligonu. Örnek dağılım fonksiyonu ve histogram.
Örnekte incelenen rastgele değişkenin davranışını görselleştirmek için çeşitli grafikler oluşturabilirsiniz. Onlardan biri - Frekans aralığı: parçaları noktaları koordinatlara bağlayan kesikli bir çizgi ( X 1 , N 1), (X 2 , N 2),…, (X k , N k), Nerede X Ben x ekseni üzerinde çizilir ve N Ben – ordinat ekseninde. Mutlak olmayan değerler ordinat ekseninde çizilirse ( N Ben) ve göreceli ( w Ben) frekansı elde ederiz bağıl frekans poligonu(Şekil 1) . Pirinç. 1.

Rastgele bir değişkenin dağılım fonksiyonuna benzetilerek, belirli bir fonksiyonu, olayın bağıl sıklığını belirleyebilirsiniz. X X.

Tanım 15.1.Örnek (ampirik) dağılım fonksiyonu işlevi çağır F* (X), her değer için tanımlama X olayın göreceli sıklığı X X. Böylece,

, (15.1)

Nerede P X– seçenek sayısı, daha küçük X, P- örnek boyut.
Yorum. Deneysel olarak bulunan ampirik dağılım fonksiyonunun aksine, dağılım fonksiyonu F(X) genel popülasyona denir teorik dağılım fonksiyonu. F(X) bir olayın olasılığını belirler X X, A F* (X) – göreceli frekansı. Yeterince büyük P Bernoulli teoreminden şu şekilde, F* (X) olasılık eğilimindedir F(X).

Ampirik dağılım fonksiyonunun tanımından, özelliklerinin aşağıdaki özelliklerle örtüştüğü açıktır: F(X), yani:


  1. 0 ≤F* (X) ≤ 1.

  2. F* (X) azalmayan bir fonksiyondur.

  3. Eğer X 1 en küçük seçenektir, o halde F* (X) = 0 XX 1; Eğer X İle – o zaman en iyi seçenek F* (X) = 1 X> X İle .
Sürekli bir özellik için grafiksel bir gösterim grafik çubuğu yani tabanları kısmi uzunluk aralıkları olan dikdörtgenlerden oluşan basamaklı bir şekil H ve yükseklikler uzunluklar N Ben / H(frekans histogramı) veya w Ben / H (göreceli frekansların histogramı). İlk durumda, histogramın alanı örnek hacmine eşittir, ikincisinde ise birliktir (Şekil 2). İncir. 2.

Ders 16.

İstatistiksel bir dağılımın sayısal özellikleri: örnek ortalama, varyans tahminleri, mod ve medyan tahminler, başlangıç ​​ve merkezi moment tahminleri. İki boyutlu bir rastgele vektör için parametre tahminlerinin istatistiksel açıklaması ve hesaplanması.
Matematiksel istatistiğin görevlerinden biri, mevcut örnek kullanılarak incelenen rastgele değişkenin sayısal özelliklerinin değerlerini tahmin etmektir.

Tanım 16.1.Örnek ortalamaörneklemde alınan rastgele değişken değerlerinin aritmetik ortalamasıdır:

, (16.1)

Nerede X Ben- seçenekler, N Ben- frekanslar.

Yorum.Örnek ortalama, incelenen rastgele değişkenin matematiksel beklentisini tahmin etmeye yarar. Böyle bir tahminin ne kadar doğru olduğu sorusu daha sonra tartışılacaktır.

Tanım 16.2.Örnek varyans isminde

, (16.2)

A Numune standart sapması

(16.3)

Rastgele değişkenler teorisinde olduğu gibi örneklem varyansını hesaplamak için aşağıdaki formülün geçerli olduğu kanıtlanabilir:

. (16.4)

Örnek 1. Bir istatistiksel seri tarafından verilen bir örneğin sayısal özelliklerini bulun


X Ben

2

5

7

8

N Ben

3

8

7

2

Varyasyon serisinin diğer özellikleri şunlardır:

- modaM 0 – en yüksek frekansa sahip seçenek (önceki örnekte) M 0 = 5).

- medyanT e - varyasyon serisini seçenek sayısı eşit olan iki parçaya bölen seçenek. Sayı seçeneği tek ise ( N = 2k+ 1), o zaman M e = X k + 1 ve çift için N = 2k
. Özellikle örnek 1'de

Başlangıç ​​ve merkezi momentlerin (ampirik momentler olarak adlandırılan) tahminleri, karşılık gelen teorik momentlere benzer şekilde belirlenir:

- düzenin ilk ampirik anık isminde

. (16.5)

Özellikle,
yani birinci dereceden başlangıç ​​ampirik momenti numune ortalamasına eşittir.

- merkezi ampirik düzen momentik isminde

. (16.6)

Özellikle,
yani ikinci dereceden merkezi ampirik moment örnek varyansa eşittir.
İstatistiksel açıklama ve özelliklerin hesaplanması

iki boyutlu rastgele vektör.
İki boyutlu rastgele değişkenlerin istatistiksel çalışmasında asıl görev genellikle bileşenler arasındaki ilişkiyi tanımlamaktır.

İki boyutlu bir örnek, rastgele vektör değerlerinin bir kümesidir: ( X 1 , en 1), (X 2 , en 2), …, (X P , sen P). Bunun için bileşenlerin örnek ortalamalarını belirleyebilirsiniz:

ve karşılık gelen örnek varyansları ve standart sapmalar. Ek olarak hesaplanabilir koşullu ortalamalar: - gözlemlenen değerlerin aritmetik ortalaması e, karşılık gelen X = x, Ve - gözlemlenen değerlerin ortalaması X, karşılık gelen e = sen.

İki boyutlu bir rastgele değişkenin bileşenleri arasında bir bağımlılık varsa, farklı biçimlerde olabilir: fonksiyonel bağımlılık, eğer her olası değer X bir değerle eşleşir e ve istatistiksel, bir miktardaki değişikliğin diğerinin dağılımında da değişikliğe yol açtığı. Bir değerdeki değişiklik sonucunda diğerinin ortalama değeri değişirse, aralarındaki istatistiksel bağımlılığa korelasyon denir.

Ders 17.

Dağılım parametrelerinin istatistiksel özelliklerinin temel özellikleri: tarafsızlık, tutarlılık, verimlilik. Örneklem ortalamasının tarafsızlığı ve tutarlılığı, matematiksel beklentinin bir tahminidir. Örnekleme varyans önyargısı. Tarafsız bir varyans tahmincisine bir örnek. Asimptotik olarak tarafsız tahminler. Tahmin oluşturma yöntemleri: maksimum olabilirlik yöntemi, momentler yöntemi, nicelik yöntemi, en küçük kareler yöntemi, tahminlerin elde edilmesine Bayes yaklaşımı.
Dağılım parametrelerinin (örnek ortalaması, örnek varyansı, vb.) istatistiksel tahminlerini elde ettikten sonra, bunların popülasyonun karşılık gelen özelliklerine yeterince yakın bir tahmin olarak hizmet ettiğinden emin olmanız gerekir. Karşılanması gereken şartları belirleyelim.

Θ* teorik dağılımın bilinmeyen parametresi Θ'nin istatistiksel bir tahmini olsun. Genel popülasyondan aynı büyüklükte birkaç örnek çıkaralım P ve her biri için Θ parametresinin tahminini hesaplayın:
Bu durumda Θ* tahmini, olası değerleri alan rastgele bir değişken olarak düşünülebilir. Eğer matematiksel beklenti Θ*, tahmin edilen parametreye eşit değilse, tahminleri hesaplarken aynı işaretin sistematik hatalarını alırız (eğer fazlaysa). M(Θ*) >Θ ve bir dezavantajı varsa: M(Θ*) M (Θ*) = Θ.
Tanım 17.2.İstatistiksel tahmin Θ* denir tarafsız, eğer matematiksel beklentisi herhangi bir örneklem büyüklüğü için tahmin edilen Θ parametresine eşitse:

M(Θ*) = Θ. (17.1)

Yerinden edilmiş Matematiksel beklentisi tahmin edilen parametreye eşit olmayan tahmine tahmin denir.

Ancak tarafsızlık, tahmin edilen parametrenin gerçek değerine iyi bir yaklaşım için yeterli bir koşul değildir. Bu durumda, olası Θ* değerleri ortalama değerden önemli ölçüde sapabilirse, yani Θ* dağılımı büyükse, o zaman bir numunenin verilerinden bulunan değer, tahmin edilen parametreden önemli ölçüde farklı olabilir. Bu nedenle dağılıma kısıtlamalar getirilmesi gerekmektedir.
Tanım 17.2.İstatistiksel değerlendirme denir etkili, eğer belirli bir örneklem büyüklüğü içinse P mümkün olan en küçük varyansa sahiptir.
Büyük örneklemler dikkate alınırken istatistiksel tahminler de tutarlılık şartına tabidir.
Tanım 17.3.Zengin istatistiksel tahmin denir, ne zaman P→∞ olasılık açısından tahmin edilen parametreye yönelir (eğer bu tahmin tarafsızsa, o zaman şu durumda tutarlı olacaktır: P→∞ varyansı 0'a eğilimlidir).
Bundan emin olalım matematiksel beklentinin tarafsız bir tahminini temsil eder M(X).

Bunu rastgele bir değişken olarak ele alacağız ve X 1 , X 2 ,…, X P yani, örneklemi oluşturan, incelenen rastgele değişkenin değerleri, – bağımsız, aynı şekilde dağıtılmış rastgele değişkenler olarak X 1 , X 2 ,…, X P, matematiksel beklentisi olan A. Matematiksel beklentinin özelliklerinden şu sonuç çıkar:

Ancak her bir miktardan dolayı X 1 , X 2 ,…, X P genel nüfusla aynı dağılıma sahip, A = M(X), yani M(
) = M(X), kanıtlanması gereken şey buydu. Örnek ortalama yalnızca tarafsız değil aynı zamanda matematiksel beklentinin tutarlı bir tahminidir. Bunu varsayarak X 1 , X 2 ,…, X P sınırlı varyanslara sahipse, Chebyshev teoreminden bunların aritmetik ortalamaları, yani artan oranlarda olduğu sonucu çıkar. P olasılık açısından matematiksel beklentiye yönelir A değerlerinin her biri, yani M(X). Sonuç olarak, örneklem ortalaması matematiksel beklentinin tutarlı bir tahminidir.

Örnek ortalamasından farklı olarak örnek varyansı, popülasyon varyansının taraflı bir tahminidir. Kanıtlanabilir ki

, (17.2)

Nerede D G – popülasyon varyansının gerçek değeri. Dağılımın başka bir tahmini önerilebilir: düzeltilmiş varyansS ² , formülle hesaplanır

. (17.3)

Böyle bir tahmin tarafsız olacaktır. Uyumlu düzeltilmiş standart sapma

. (17.4)

Tanım 17.4. Bazı niteliklerin değerlendirilmesine denir asimptotik olarak tarafsızörnek için ise X 1 , X 2 , …, X P

, (17.5)

Nerede X– incelenen miktarın gerçek değeri.
Değerlendirme oluşturma yöntemleri.
1. Maksimum olabilirlik yöntemi.
İzin vermek X– sonuç olarak ayrık rastgele değişken P testler değerler aldı X 1 , X 2 , …, X P. Bu miktarın Θ parametresi tarafından belirlenen dağılım yasasını bildiğimizi, ancak bu parametrenin sayısal değerinin bilinmediğini varsayalım. Nokta tahminini bulalım.

İzin vermek R(X Ben, Θ) test sonucunda değerin ortaya çıkma olasılığıdır. X değerini alacak X Ben. Hadi arayalım olasılık fonksiyonu Ayrık rassal değişken X bağımsız değişken fonksiyonu Θ, aşağıdaki formülle belirlenir:

L (X 1 , X 2 , …, X P ; Θ) = P(X 1,Θ) P(X 2,Θ)… P(X N ,Θ).

Daha sonra Θ parametresinin nokta tahmini olarak onun değerini Θ* = Θ( alırız. X 1 , X 2 , …, X P olabilirlik fonksiyonunun maksimuma ulaştığı noktadır. Tahmini Θ* denir maksimum olasılık tahmini.

Fonksiyonlardan beri L ve ln L Aynı Θ değerinde bir maksimuma ulaşıldığında, maksimum ln'yi aramak daha uygundur. Llog-olabilirlik fonksiyonu. Bunu yapmak için ihtiyacınız olan:


Maksimum olabilirlik yönteminin avantajları: elde edilen tahminler tutarlıdır (önyargılı olabilmelerine rağmen), büyük değerler için asimptotik olarak normal şekilde dağıtılır P ve diğer asimptotik olarak normal tahminlerle karşılaştırıldığında en küçük varyansa sahiptir; tahmin edilen Θ parametresi için etkili bir tahmin Θ* varsa, o zaman olabilirlik denkleminin benzersiz bir çözümü Θ* vardır; yöntem, numune verilerinden en eksiksiz şekilde faydalanılmasını sağlar ve bu nedenle özellikle küçük numuneler durumunda kullanışlıdır.

Maksimum olabilirlik yönteminin dezavantajı: hesaplama karmaşıklığı.
Bilinen bir dağılım yoğunluğuna sahip sürekli bir rastgele değişken için F(X) ve bilinmeyen bir parametre Θ varsa, olabilirlik fonksiyonu şu şekildedir:

L (X 1 , X 2 , …, X P ; Θ) = F(X 1,Θ) F(X 2,Θ)… F(X N ,Θ).

Bilinmeyen bir parametre için maksimum olasılık tahmini, ayrık bir rastgele değişkenle aynı şekilde gerçekleştirilir.
2. Momentler yöntemi.
Momentler yöntemi, başlangıç ​​ve merkezi ampirik momentlerin sırasıyla başlangıç ​​ve merkezi teorik momentlerin tutarlı tahminleri olduğu gerçeğine dayanmaktadır, böylece teorik momentleri aynı düzendeki karşılık gelen ampirik momentlerle eşitlemek mümkündür.

Dağıtım yoğunluk tipi belirtilmişse F(X, Θ), bilinmeyen bir parametre Θ tarafından belirleniyorsa, bu parametreyi tahmin etmek için bir denklemin olması yeterlidir. Örneğin, birinci dereceden başlangıç ​​anlarını eşitleyebilirsiniz:

,

böylece Θ'yi belirlemek için bir denklem elde edilir. Çözümü Θ*, örnek ortalamasının ve dolayısıyla örnek değişkeninin bir fonksiyonu olan parametrenin bir nokta tahmini olacaktır:

Θ = ψ ( X 1 , X 2 , …, X P).

Bilinen dağıtım yoğunluğu türü ise F(X, Θ 1, Θ 2) iki bilinmeyen parametre Θ 1 ve Θ 2 tarafından belirlenirse, o zaman iki denklem oluşturmak gerekir, örneğin

v 1 = M 1 , μ 2 = T 2 .

Buradan
- iki bilinmeyeni Θ 1 ve Θ 2 olan iki denklemden oluşan bir sistem. Çözümleri, örnekleme seçeneğinin nokta tahminleri Θ 1 * ve Θ 2 * - fonksiyonları olacaktır:

Θ 1 = ψ 1 ( X 1 , X 2 , …, X P),

Θ 2 = ψ 2 ( X 1 , X 2 , …, X P).
3. En küçük kareler yöntemi.

Miktarların bağımlılığını tahmin etmeniz gerekiyorsa en Ve X ve bunları bağlayan fonksiyonun şekli bilinmektedir, ancak içerdiği katsayıların değerleri bilinmemektedir; değerleri, en küçük kareler yöntemi kullanılarak mevcut örnekten tahmin edilebilir. Bu amaçla fonksiyon en = φ ( X) gözlemlenen değerlerin sapmalarının karelerinin toplamı olacak şekilde seçilir en 1 , en 2 ,…, en Pφ'den ( X Ben) minimum düzeydeydi:

Bu durumda φ( fonksiyonunun durağan noktasını bulmak gerekir. X; A, B, C), yani sistemi çözün:

(çözüm elbette yalnızca φ fonksiyonunun spesifik formunun bilinmesi durumunda mümkündür).

Örnek olarak, en küçük kareler yöntemini kullanarak doğrusal bir fonksiyonun parametrelerinin seçimini ele alalım.

Parametreleri değerlendirmek için A Ve B işlevde sen = balta + B, bulacağız
Daha sonra
. Buradan
. Ortaya çıkan her iki denklemi de bölmek P ve ampirik momentlerin tanımlarını hatırlayarak, aşağıdaki ifadeleri elde edebiliriz: A Ve B gibi:

. Bu nedenle aralarındaki bağlantı X Ve en formda belirtilebilir:


4. Tahminlerin elde edilmesine Bayes yaklaşımı.
İzin vermek ( e, X) – yoğunluğunun bilindiği rastgele vektör R(en|X) koşullu dağıtım e her değerde X = x. Deneme yalnızca değerlerle sonuçlanırsa e ve karşılık gelen değerler X bilinmiyorsa, belirli bir φ( fonksiyonunu tahmin etmek için X) yaklaşık değeri olarak koşullu matematiksel beklentinin aranması önerilmektedir. M (φ‌‌( X)‌‌‌‌‌‌|e), aşağıdaki formülle hesaplanır:

, Nerede , R(X X, Q(sen) – koşulsuz dağılımın yoğunluğu e. Bir sorun ancak bilindiği zaman çözülebilir R(X). Ancak bazen tutarlı bir tahmin oluşturmak mümkündür. Q(sen), yalnızca numunede elde edilen değerlere bağlı olarak e.

Ders 18.

Bilinmeyen parametrelerin aralık tahmini. Tahmin doğruluğu, güven düzeyi (güvenilirlik), güven aralığı. Bilinen ve bilinmeyen varyanslı bir normal dağılımın matematiksel beklentisini tahmin etmek için güven aralıklarının oluşturulması. Normal bir dağılımın standart sapmasını tahmin etmek için güven aralıkları.
Küçük bir örneklem büyüklüğü ile nokta tahmini, tahmin edilen parametreden önemli ölçüde farklı olabilir ve bu da büyük hatalara yol açar. Bu nedenle bu durumda kullanmak daha iyidir aralık tahminleri yani, tahmin edilen parametrenin gerçek değerinin belirli bir olasılıkla düştüğü aralığı belirtir. Elbette bu aralığın uzunluğu ne kadar kısa olursa parametre tahmini o kadar doğru olur. Bu nedenle, eşitsizlik | Θ* - Θ | 0 karakterize eder tahmin doğruluğu(δ ne kadar küçük olursa tahmin o kadar doğru olur). Ancak istatistiksel yöntemler yalnızca bu eşitsizliğin belirli bir olasılıkla karşılandığını söylememize izin verir.

Tanım 18.1.Güvenilirlik (güven olasılığı) Θ parametresinin Θ* tahmini, γ eşitsizliğinin karşılanma olasılığıdır | Θ* - Θ |
P (Θ* - δ
Dolayısıyla γ, Θ'nin (Θ* - δ, Θ* + δ) aralığına düşme olasılığıdır.

Tanım 18.2.Güvenilir belirli bir güvenilirlik γ ile bilinmeyen parametrenin düştüğü aralıktır.
Güven aralıklarının oluşturulması.
1. Bilinen bir varyansa sahip normal bir dağılımın matematiksel beklentisini tahmin etmek için güven aralığı.

Rastgele değişkenin çalışılmasına izin verin X bilinen bir ortalama kare σ ile normal yasaya göre dağıtılır ve örnek ortalamanın değerine göre matematiksel beklentisinin tahmin edilmesi gerekir. A. Örnek ortalamasını rastgele bir değişken olarak ele alacağız ve değerler örnek seçenektir X 1 , X 2 ,…, X P aynı şekilde dağıtılmış bağımsız rastgele değişkenler olarak X 1 , X 2 ,…, X P her birinin matematiksel bir beklentisi var A ve standart sapma σ. burada M() = A,
(matematiksel beklenti ve bağımsız rastgele değişkenlerin toplamının dağılımının özelliklerini kullanıyoruz). Eşitsizliğin olasılığını tahmin edelim
. Normal dağılmış bir rastgele değişkenin belirli bir aralığa düşme olasılığı için formülü uygulayalım:

R (
) = 2F
. Daha sonra şu gerçeği dikkate alarak, R() = 2F
=

2F( T), Nerede
. Buradan
ve önceki eşitlik şu şekilde yeniden yazılabilir:

. (18.1)

Yani matematiksel beklentinin değeri A olasılık (güvenilirlik) ile γ aralığına düşer
, değer nerede T Laplace fonksiyonu tablolarından eşitlik 2Ф( olacak şekilde belirlenir. T) = γ.
Örnek. Örneklem büyüklüğü normal ise, normal dağılmış bir rastgele değişkenin matematiksel beklentisi için güven aralığını bulalım. P = 49,
σ = 1,4 ve güven olasılığı γ = 0,9.

Hadi tanımlayalım T, hangi noktada Ф( T) = 0,9:2 = 0,45: T= 1,645. Daha sonra

veya 0,9 güvenirlik ile 2,471 a a.
2. Varyansı bilinmeyen normal bir dağılımın matematiksel beklentisini tahmin etmek için güven aralığı.

Eğer incelenen rastgele değişkenin biliniyorsa X bilinmeyen standart sapmaya sahip normal bir yasaya göre dağıtılır, ardından matematiksel beklentisi için bir güven aralığı bulmak için yeni bir rastgele değişken oluştururuz

, (18.2)

Nerede - örnek ortalaması, S– düzeltilmiş varyans, P- örnek boyut. Olası değerleri şu şekilde gösterilecek olan bu rastgele değişken: T, bir Öğrenci dağılımına sahiptir (bkz. Ders 12). k = N– 1 serbestlik derecesi.

Öğrenci dağılım yoğunluğundan beri
, Nerede
açıkça bağlı değildir A ve σ, belirli bir aralığa düşme olasılığını ayarlayabilirsiniz (- T γ , T γ ), dağıtım yoğunluğunun düzgünlüğü dikkate alınarak aşağıdaki şekilde:
. Buradan şunu anlıyoruz:

(18.3)

Böylece bir güven aralığı elde edildi. A, Nerede T γ verilen ilgili tablodan bulunabilir P ve γ.

Örnek. Örnek boyutunun P = 25, = 3, S= 1,5. için güven aralığını bulalım. Aγ = 0,99'da. Tablodan bunu buluyoruz T γ (P= 25, γ = 0,99) = 2,797. Daha sonra
veya 0,99 olasılıkla 2,161a a.
3. Normal bir dağılımın standart sapmasını tahmin etmek için güven aralıkları.

Formun güven aralığını arayacağız ( S – δ, S), Nerede S düzeltilmiş örnek standart sapmasıdır ve δ için aşağıdaki koşul sağlanır: P (|σ – S|
Bu eşitsizliği şu şekilde yazalım:
veya, belirleme
,

Formül tarafından belirlenen rastgele değişken χ'yi ele alalım.

,

ki-kare kanununa göre dağıtılır P-1 serbestlik derecesi (bkz. ders 12). Dağıtım yoğunluğu

tahmin edilen parametre σ'ya bağlı değildir, yalnızca örneklem büyüklüğüne bağlıdır P. Eşitsizliği (18.4) χ 1 formunu alacak şekilde dönüştürelim. Q

,

veya ile çarpıldıktan sonra
,
. Buradan,
. Daha sonra
Bulabileceğiniz ki-kare dağılımına ilişkin tablolar bulunmaktadır. Q verilene göre P ve γ bu denklemi çözmeden. Böylece numuneden değer hesaplandıktan sonra S ve tablodan değerin belirlenmesi Qσ değerinin belirli bir γ olasılığıyla düştüğü güven aralığını (18.4) bulabilirsiniz.
Yorum. Eğer Q> 1 ise, σ > 0 koşulu dikkate alındığında, σ için güven aralığının sınırları olacaktır.

. (18.5)

İzin vermek P = 20, S= 1.3. Belirli bir güvenilirlik γ = 0,95 için σ'nun güven aralığını bulalım. Bulduğumuz ilgili tablodan Q (N= 20, γ = 0,95) = 0,37. Dolayısıyla güven aralığının sınırları şöyledir: 1,3(1-0,37) = 0,819 ve 1,3(1+0,37) = 1,781. Yani 0,819



Makaleyi beğendin mi? Arkadaşlarınla ​​paylaş!