Нөхцөлт энтропи нь хамааралтай системүүдийн нэгдэл юм. Нөхцөлт энтропи

Камерын шалгалт тохируулгын даалгавар, арга

Камерын шалгалт тохируулга нь камерын дотоод чиг баримжааны элементүүдийн утгыг тодорхойлох, гол төлөв линзний гажуудлаас үүдэлтэй оптик системийн системчилсэн алдааг тодорхойлохоос бүрдэнэ.

Дотоод чиг баримжаа олгох элементүүд нь фокусын урт (е) ба гол цэгийн координат ( x o , y o).

Итгэлийн тэмдэг бүхий камерын хувьд тэдгээрийн координатыг мөн тодорхойлдог.

Системчилсэн алдааоптик систем нь бодит хоорондын ялгааг тодорхойлдог физик системтүүнээс математик загвар. Линзний гажуудал нь төвийн дизайны геометрт нөлөөлж, улмаар уялдаа холбоотой байх зарчим биелдэггүй (энэ нь зөрчигддөг. төв төсөөлөлзураг)

Линзний гажуудал нь радиаль ба тангенциал гэсэн хоёр төрөлтэй. Радиал гажуудал нь тангенциал гажилтаас хамаагүй их байдаг тул дүрмээр бол зөвхөн радиаль гажуудлыг тодорхойлно. Практикт фотограмметрийн хэмжилт хийхэд тусгайлан хийсэн камерууд нь маш бага гажуудалтай линзтэй байдаг тул шалгалт тохируулгын явцад зөвхөн гол цэгийн фокусын урт, координатыг тодорхойлоход хангалттай. Орчин үеийн дижитал камерын хувьд гол асуудалбайна чанар муутайих хэмжээний гажуудалтай (100 μм ба түүнээс дээш хүрч болно) болон төвлөрсөн бус линзний үйлдвэрлэл бие даасан элементүүдлинз, энэ нь гол оптик туяа нь зургийн хавтгайд перпендикуляр биш болоход хүргэдэг. Тиймээс ийм камерыг тохируулахдаа зөвхөн радиаль гажуудал төдийгүй оптик системийн төвлөрлийг сааруулах (төвлөрсөн бус эсвэл тангенциал линзний гажуудал) зэргийг тодорхойлох нь зүйтэй.

Линзний гажуудлыг дүрсэлж болно өөр өөр тэгшитгэлүүд, Жишээ нь:



Хаана d x , d y– линзийг гажуудуулахын тулд зургийн цэгүүдийн координатыг засах; x,y- зургийн цэгүүдийн координат; k 1 , k 2 , k 3– радиаль гажуудлын коэффициент; p 1 , p 2– төвлөрсөн бус линзний гажуудлын коэффициент; r 0радиус вектор, тэг гажуудалтай харгалзах; r- гол цэгээс зай x o , y o:

Камерыг тохируулах гурван арга байдаг:

Олон калибратор ашиглан шалгалт тохируулга хийх

· Туршилтын объект ашиглан шалгалт тохируулга хийх.

· Өөрөө тохируулга хийх.

Олон тооны калибратор ашиглан шалгалт тохируулга нь камерын дотоод чиг баримжааны элементүүдийг тодорхойлох боломжийг олгодог тусгай төхөөрөмж дээр хийгддэг. лабораторийн нөхцөл. Үнэтэй тоног төхөөрөмж шаардлагатай тул энэ аргыг одоо бараг ашигладаггүй.

Туршилтын объектыг ашиглан шалгалт тохируулга хийх нь туршилтын объектын зураг дээрх цэгүүдийн координатыг хэмжсэн үр дүнд үндэслэн тохируулгын параметрүүдийг тооцоолоход суурилдаг. Туршилтын объект нь мэдэгдэж буй координат бүхий олон цэг бүхий тусгай объект юм.

Self-calibration нь бодит зураг дээр хийгдсэн фото гурвалжингийн үед тохируулгын параметрүүдийг тодорхойлох боломжийг олгодог камерын шалгалт тохируулгын арга юм.

Хамгийн түгээмэл хэрэглэгддэг сүүлийн хоёр аргыг илүү нарийвчлан авч үзье.

Орон зайн туршилтын объект ашиглан камерыг тохируулах

Энэ арга нь туршилтын объектын гэрэл зураг дээр суурилдаг. Зураг 8.1-д цэгүүдийг тэмдэглэсэн орон зайн дүрсийн жишээг үзүүлэв. Эдгээр цэгүүдийн координатыг геодезийн аргуудын аль нэгээр шаардлагатай нарийвчлалтайгаар тодорхойлно.


Зураг 8.1

Энэ объектыг судалж буй камераар буудсаны дараа өргөтгөсөн коллинеар тэгшитгэл дээр үндэслэн тайралтыг шийддэг.

(8.3)

Хаана dx,dy– (8.1) эсвэл (8.2) ашиглан тооцоолсон линзний гажуудлын дүрсний цэгүүдийн координатын залруулга. (8.3) тэгшитгэлийн үл мэдэгдэх зүйлс нь дотоод элементүүд юм f,x o,y o, гадаад чиг баримжаа X S ,Y S ,Z S , w,a,kба гажуудлын коэффициентууд k 1 ,k 2 ,k 3, p 1 ,p 2. Тэдгээрийг тодорхойлохын тулд эдгээр тэгшитгэлийг зургийн цэгүүдийн хэмжсэн координатыг ашиглан эмхэтгэсэн x,yба координатууд X,Y,Zтуршилтын объектын харгалзах цэгүүд аргыг ашиглан асуудлыг шийддэг хамгийн бага квадратууд, дараалсан ойролцоо тооллын аргаар.

Видео дохиог хувиргадаг камеруудад зориулагдсан дижитал хэлбэр, (8.3) тэгшитгэлд коэффициент нэмэхийг зөвлөж байна. аффины хувирал a 1Тэгээд а 2,тэр нь:

(8.4)

(8.3) ба (8.4) тэгшитгэл дээр үндэслэн камерын тохируулгын асуудлыг зөв, найдвартай шийдвэрлэх. их үнэ цэнэтуршилтын объект (хэмжээ, цэгийн тоо, тэдгээрийн координатын нарийвчлал) ба түүнийг буудах аргатай байна. Зураг авалтыг объектын цэгүүд нь зургийн талбайг бүхэлд нь хамрах байдлаар хийх ёстой (Зураг 8.5).



Туршилтын объектын хэмжээс нь шалгалт тохируулга хийх камерын төрлөөс хамаарна, өөрөөр хэлбэл. оновчтой зайнаас хамаарна Y СЭнэ камер нь зориулагдсан зураг авалт. Хэрэв энэ зай ба камерын фокусын уртыг ойролцоогоор мэддэг бол туршилтын объектын хэмжээсийг Зураг дээр тооцоолж болно. 8.5. Туршилтын хувьд та барилгын фасадыг ашиглаж болно, тулгуур цэгүүд нь их хэмжээний нягтралтай тэмдэглэгдсэн байдаг. Цэгийн хуваарилалтын хувьд тэдгээрийг хавтгай дээрх бүх талбайд жигд байрлуулах ёстой. хавтгайтай зэрэгцээзураг (линзний гажуудлын коэффициентийг найдвартай тодорхойлохын тулд зургийг бүхэлд нь цэгээр бүрхэх) перпендикуляр чиглэл(гүнд) камерын фокусын уртыг тодорхойлох.

Зураг дээр. Зураг 8.6-д туршилтын объектуудын жишээг үзүүлэв.

Хэрэв туршилтын объектын лавлах цэгүүд нэг хавтгайд байгаа бол фокусын уртын хамаарлаас шалтгаална езайтай Y Стайралтыг шийдвэрлэх үед шийдэл нь тодорхойгүй байдалд хүргэдэг. Энэ нөхцөл байдлыг Зураг дээр үзүүлэв. 8.7.


Зураг 8.8

Мэдээжийн хэрэг, объектын гурав дахь хэмжээс нь том байх тусам ( h), ялангуяа найдвартай шийдэл. -аас туршилтын судалгаахарилцаа гэдэг нь мэдэгдэж байна h/Y S 1/5-аас багагүй байх ёстой.

Туршилтын объектын цэгүүдийн координатын нарийвчлалыг энгийн томъёогоор тооцоолж болно.

Хаана г x - шалгалт тохируулгын параметрүүдийг тодорхойлох нарийвчлал. Ингэж бодъё d x=0.001мм, камерын фокусын урт ойролцоогоор тэнцүү байна е=100мм зайнаас буудна Y С=30м, тэгвэл г X= 0.1мм

Нөхцөлт энтропи

Энтропи (мэдээллийн)- мэдээллийн эмх замбараагүй байдлын хэмжүүр, анхдагч цагаан толгойн аль ч тэмдгийн харагдах байдлын тодорхойгүй байдал. Мэдээллийн алдагдал байхгүй тохиолдолд энэ нь дамжуулагдсан мессежийн нэг тэмдэгт ногдох мэдээллийн хэмжээтэй тэнцүү байна.

Жишээлбэл, орос хэл дээрх өгүүлбэрийг бүрдүүлж буй үсгүүдийн дарааллаар: өөр өөр үсэгөөр өөр давтамжтай гарч ирдэг тул тохиолдлын тодорхойгүй байдал нь зарим үсгүүдийн хувьд бусдаас бага байдаг. Хэрэв бид үсгийн зарим хослолыг анхаарч үзвэл (энэ тохиолдолд бид энтропийн тухай ярьдаг n-р дараалал, харна уу) нь маш ховор тохиолддог, дараа нь тодорхойгүй байдал улам бүр багасдаг.

Мэдээллийн энтропийн тухай ойлголтыг харуулахын тулд Максвеллийн чөтгөр гэж нэрлэгддэг термодинамик энтропийн талбараас жишээ авч болно. Мэдээлэл ба энтропи гэсэн ойлголтууд нь хоорондоо гүн гүнзгий холбоотой боловч үүнийг үл харгалзан онолын хөгжил статистик механикмөн мэдээллийн онол нь тэдгээрийг хоорондоо нийцүүлэхийн тулд олон жил зарцуулсан.

Албан ёсны тодорхойлолтууд

Өөрийн мэдээллийг ашиглан тодорхойлох

Та мөн санамсаргүй хэмжигдэхүүний тархалтын тухай ойлголтыг эхлээд санамсаргүй хэмжигдэхүүний энтропийг тодорхойлж болно. Xбайх эцсийн тооүнэ цэнэ:

I(X) = − бүртгэл П X (X).

Дараа нь энтропи дараах байдлаар тодорхойлогдоно.

Мэдээллийн хэмжилтийн нэгж ба энтропи нь логарифмын үндсэн дээр хамаарна: бит, нат эсвэл хартли.

Мэдээллийн энтропибие даасан санамсаргүй үйл явдлын хувьд x-тай n боломжит нөхцөл(1-ээс n)-ийг дараах томъёогоор тооцоолно.

Энэ хэмжээг мөн нэрлэдэг мессежийн дундаж энтропи. Тоо хэмжээ гэж нэрлэдэг хувийн энтропи, зөвхөн шинж чанар би- e муж.

Тиймээс үйл явдлын энтропи xнийлбэр нь байна эсрэг тэмдэгбүх ажил харьцангуй давтамжуудүйл явдал тохиолдох би, өөрсдийн хоёртын логарифмаар үржүүлсэн (2-р суурийг зөвхөн хоёртын хэлбэрээр танилцуулсан мэдээлэлтэй ажиллахад хялбар болгох үүднээс сонгосон). Дискрет санамсаргүй үйл явдлын энэхүү тодорхойлолтыг магадлалын тархалтын функц болгон өргөжүүлж болно.

Ерөнхийдөө б-арийн энтропи(Хаана бтэнцүү 2, 3, ...) эх цагаан толгойтой эх ба салангид хуваарилалтмагадлал хаана х бимагадлал юм а би (х би = х(а би) ) дараах томъёогоор тодорхойлогдоно.

Шеннон энтропийн тодорхойлолт нь термодинамик энтропи гэсэн ойлголттой холбоотой. Больцманн, Гиббс нар хийсэн гайхалтай ажил By статистик термодинамик, энэ нь "энтропи" гэдэг үгийг батлахад хувь нэмэр оруулсан мэдээллийн онол. Термодинамик ба мэдээллийн энтропи хоёрын хооронд холбоо байдаг. Жишээлбэл, Максвеллийн чөтгөр мөн адил ялгаатай байдаг термодинамик энтропимэдээлэл, ямар ч хэмжээний мэдээлэл олж авах нь алдагдсан энтропитэй тэнцэнэ.

Альтернатив тодорхойлолт

Энтропийн функцийг тодорхойлох өөр нэг арга Хүүний нотолгоо юм Хгагцхүү хэрвээ л өвөрмөц байдлаар тодорхойлогддог (өмнө дурдсанчлан). Хнөхцөлийг хангаж байна:

Үл хөдлөх хөрөнгө

Энтропи нь контекстээр тодорхойлогдсон хэмжигдэхүүн гэдгийг санах нь чухал магадлалын загвармэдээллийн эх сурвалжийн хувьд. Жишээлбэл, зоос шидэх нь энтропи − 2(0.5log 2 0.5) = 1 бит (бие даасан гэж үзвэл) байна. Зөвхөн "А" үсгүүдээс бүрдэх стринг үүсгэдэг эх үүсвэр нь тэг энтропитэй байна: . Жишээлбэл, энтропийг туршилтаар тогтоож болно Англи хэл дээрх тексттэмдэгт бүрт 1.5 биттэй тэнцүү бөгөөд энэ нь мэдээж өөр өөр текстийн хувьд өөр өөр байх болно. Өгөгдлийн эх үүсвэрийн энтропийн зэрэг нь мэдээллийг алдагдуулахгүйгээр, оновчтой кодчилолтойгоор шифрлэхэд шаардагдах өгөгдлийн элементэд ногдох битийн дундаж тоог хэлнэ.

  1. Зарим өгөгдлийн бит мэдээлэл зөөхгүй байж болно. Жишээлбэл, өгөгдлийн бүтэц нь ихэвчлэн илүүдэл мэдээллийг хадгалдаг эсвэл өгөгдлийн бүтэц дэх мэдээллээс үл хамааран ижил хэсгүүдтэй байдаг.
  2. Энтропийн хэмжээг үргэлж битийн бүхэл тоогоор илэрхийлдэггүй.

Математик шинж чанарууд

Үр ашиг

Практикт тааралдсан анхны цагаан толгой нь магадлалын тархалттай бөгөөд энэ нь оновчтой биш юм. Хэрэв анхны цагаан толгой нь байсан бол nтэмдэгтүүд байвал магадлалын тархалт нь жигд байдаг "оновчтой цагаан толгой"-той харьцуулж болно. Анхны болон оновчтой цагаан толгойн энтропийн харьцаа нь эх үсгийн үр ашиг бөгөөд үүнийг хувиар илэрхийлж болно.

Үүнээс үзэхэд анхны цагаан толгойн үр дүнтэй байдал nТэмдэгтүүдийг түүнтэй тэнцүү гэж тодорхойлж болно n-арийн энтропи.

Энтропи нь онолын хувьд ердийн багц эсвэл практикт Хаффман кодчилол, Лемпел-Зив-Велч кодчилол эсвэл арифметик кодчилол ашиглан хийж болох хамгийн их алдагдалгүй (эсвэл бараг алдагдалгүй) шахалтыг хязгаарладаг.

Хувилбар ба ерөнхий дүгнэлт

Нөхцөлт энтропи

Хэрэв цагаан толгойн тэмдэгтүүдийн дараалал нь бие даасан биш бол (жишээлбэл, Франц"q" үсгийн ард бараг үргэлж "у" үсэг ордог бөгөөд "дэвшилтэт" гэсэн үг байдаг Зөвлөлтийн сонинуудАраас нь ихэвчлэн "үйлдвэрлэл" эсвэл "хөдөлмөр" гэсэн үг байдаг), ийм тэмдэгтүүдийн дарааллаар (тиймээс энтропи) зөөвөрлөх мэдээллийн хэмжээ бага байх нь ойлгомжтой. Ийм баримтыг харгалзан үзэхийн тулд нөхцөлт энтропи ашигладаг.

Нэгдүгээр эрэмбийн нөхцөлт энтропи (Марковын нэгдүгээр эрэмбийн загвартай төстэй) нь цагаан толгойн үсгийн энтропи бөгөөд нэг үсэг дараалан гарч ирэх магадлал (өөрөөр хэлбэл хоёр үсэгний хослолын магадлал) мэдэгдэж байна.

Хаана биөмнөх тэмдэгтээс хамааралтай төлөв байдал бөгөөд х би (j) - энэ бол магадлал j, тэгсэн тохиолдолд биөмнөх дүр байсан.

Тиймээс "" үсэггүй орос хэлний хувьд.

Шуугиантай суваг дахь өгөгдөл дамжуулах явцад мэдээллийн алдагдлыг хэсэгчилсэн болон ерөнхий нөхцөлт энтропиээр бүрэн дүрсэлсэн болно. Энэ зорилгоор гэж нэрлэгддэг сувгийн матрицууд. Тиймээс, эх үүсвэрийн алдагдлыг тодорхойлохын тулд (өөрөөр хэлбэл илгээсэн дохио нь мэдэгдэж байгаа) хүлээн авагч тэмдэг хүлээн авах нөхцөлт магадлалыг анхаарч үзээрэй. б jдүрийг илгээсэн тохиолдолд а би. Энэ тохиолдолд сувгийн матриц дараах хэлбэртэй байна.

б 1 б 2 б j б м
а 1
а 2
а би
а м

Мэдээжийн хэрэг диагональ дагуу байрлах магадлал нь зөв хүлээн авах магадлалыг тодорхойлдог бөгөөд баганын бүх элементүүдийн нийлбэр нь хүлээн авагчийн талд харгалзах тэмдэг гарч ирэх магадлалыг өгөх болно. х(б j) . Дамжуулсан дохионы алдагдал а би, хэсэгчилсэн нөхцөлт энтропигоор тодорхойлогддог:

Бүх дохионы дамжуулалтын алдагдлыг тооцоолохын тулд ерөнхий нөхцөлт энтропийг ашиглана.

Энэ нь хүлээн авагч талын энтропийг ижил төстэй байдлаар авч үздэг гэсэн үг юм: үүнийг хаа сайгүй зааж өгсөн болно (шугамын элементүүдийг нэгтгэн авч болно; х(а би) , диагональ элементүүд нь хүлээн авсан тэмдэгтийг яг илгээсэн байх магадлалыг, өөрөөр хэлбэл зөв дамжуулах магадлалыг хэлнэ).

Харилцан энтропи

Харилцан энтропи, эсвэл нэгдлийн энтропи, нь хоорондоо холбогдсон системүүдийн энтропийг (статистикийн хамааралтай мэдээллүүдийн хамтарсан тохиолдлын энтропи) тооцоолоход зориулагдсан бөгөөд үүнийг тэмдэглэнэ. Х(АБ), Хаана А, урьдын адил, дамжуулагчийг тодорхойлдог, мөн Б- хүлээн авагч.

Дамжуулсан болон хүлээн авсан дохионы хоорондын хамаарлыг магадлалаар тодорхойлно хамтарсан арга хэмжээ х(а би б j) , болон төлөө бүрэн тайлбарсувгийн шинж чанар, зөвхөн нэг матриц шаардлагатай:

х(а 1 б 1) х(а 1 б 2) х(а 1 б j) х(а 1 б м)
х(а 2 б 1) х(а 2 б 2) х(а 2 б j) х(а 2 б м)
х(а би б 1) х(а би б 2) х(а би б j) х(а би б м)
х(а м б 1) х(а м б 2) х(а м б j) х(а м б м)

Илүү ихийг ерөнхий тохиолдол, Хэрэв энэ нь тайлбарлаж буй суваг биш, харин зүгээр л харилцан үйлчилдэг системүүд байх үед матриц нь дөрвөлжин байх албагүй. Мэдээжийн хэрэг, тоо бүхий баганын бүх элементүүдийн нийлбэр jөгөх болно х(б j) , мөрийн дугаарын нийлбэр биБайна х(а би) , мөн бүх матрицын элементүүдийн нийлбэр нь 1-тэй тэнцүү байна. Хамтарсан магадлал х(а би б j) үйл явдал а биТэгээд б jАнхны болон нөхцөлт магадлалын үржвэрээр тооцно.

Нөхцөлт магадлалыг Байесийн томъёог ашиглан гаргадаг. Тиймээс эх сурвалж ба хүлээн авагчийн энтропийг тооцоолох бүх өгөгдөл байдаг.

Харилцан энтропи нь матрицын бүх магадлалыг мөр (эсвэл багана) дээр дараалан нийлж, тэдгээрийн логарифмаар үржүүлж тооцдог.

Х(АБ) = − х(а би б j) бүртгэл х(а би б j).
би j

Хэмжилтийн нэгж нь бит/хоёр тэмдэгт бөгөөд үүнийг харилцан энтропи нь илгээсэн болон хүлээн авсан хос тэмдэгт ногдох тодорхойгүй байдлыг тодорхойлдогтой холбон тайлбарладаг. Энгийн хувиргалтаар бид бас олж авдаг

Харилцан энтропи нь өмчтэй байдаг мэдээллийн бүрэн байдал- үүнээс та авч үзэж буй бүх тоо хэмжээг авах боломжтой.

Санамсаргүй хэмжигдэхүүний энтропи болон мэдээллийн хэмжээг тооцоолох Шенноны томъёог (3.3) авч үзээд бид санамсаргүй хэмжигдэхүүн (X)-ийн талаарх мэдээлэл ажиглагчид шууд ирдэг гэж үзсэн. Гэсэн хэдий ч бид дүрмээр бол бидний сонирхдог санамсаргүй хэмжигдэхүүн (X)-ийн тухай бус харин X-тэй стохастик байдлаар холбоотой өөр нэг (Y) тухай мэдээллийг авдаг. Санамсаргүй хэмжигдэхүүнүүдийн ийм холболт нь функциональ холболтоос ялгаатай бөгөөд нэг утгын утга тус бүр нь өөр утгын нэг сайн тодорхойлогдсон утгатай тохирдог. X ба Y хоёр санамсаргүй хэмжигдэхүүнүүдийн хоорондох стохастик (магадлал) холболт нь тэдгээрийн аль нэгнийх нь өөрчлөлт нь нөгөөгийн үнэд нөлөөлдөг гэсэн үг боловч X-ийн утгыг мэдэхийн тулд утгыг зөв зааж өгөх боломжгүй юм. Y нь зөвхөн Y утгын өөрчлөлтийн хандлагыг зааж өгч болно.

B-г үзье санамсаргүй үйл явдал; p(B) – түүний үүсэх магадлал; N-г авдаг санамсаргүй хэмжигдэхүүнийг X-ээр тэмдэглэе өөр өөр утгатай(x 1 , x 2 , … x N ) болон A k-ээр дамжуулан санамсаргүй хувьсагч X нь x k утгыг авна:

A k = ( X = x k ), k=1,2, …N ;

Бид A k үйл явдлын магадлалыг p(A k) гэж тэмдэглэнэ. Зарим үйл явдлын магадлал нь өөр үйл явдал болсон эсэхээс хамаарч өөрчлөгдөж болно. В үйл явдал болсон гэсэн таамаглалаар тооцсон А k үзэгдлийн магадлалыг p B (A k) A k үзэгдлийн нөхцөлт магадлал гэнэ, энэ тохиолдолд:

Хэрэв А k үзэгдлийн тохиолдох магадлал нь В үйл явдал болсон эсэхээс хамаарахгүй бол A k ба B үйл явдлуудыг бие даасан гэж нэрлэдэг. магадлал p(A k).

Тодорхойлолт. В нөхцөл дэх X санамсаргүй хэмжигдэхүүний нөхцөлт энтропи нь хэмжигдэхүүн юм

(4.2)

Шэннон (3.3) томъёоноос ялгаатай нь p(A k) магадлалын оронд p B (A k) нөхцөлт магадлалыг ашигласан явдал юм.

Одоо Y-г өөр нэг санамсаргүй хэмжигдэхүүн (y 1, y 2, ... y M) авч үзье. Y санамсаргүй хэмжигдэхүүн y j утгыг авах үйл явдлыг B j-ээр тэмдэглэе.

B j = ( Y = y j ), j=1, 2,... М.

Бид B j үйл явдлын магадлалыг p(B j) гэж тэмдэглэнэ.

Тодорхойлолт. Х санамсаргүй хэмжигдэхүүний нөхцөлт энтропи at утгыг тохируулахсанамсаргүй хэмжигдэхүүн Y нь хэмжигдэхүүн H Y (X)

(4.3)

(4.3) томъёог өөрчилье:

Формула (4.3) дараах хэлбэртэй байна.

(4.4)

Y санамсаргүй хэмжигдэхүүнийг ажигласнаар олж авсан X санамсаргүй хэмжигдэхүүний талаарх мэдээллийн хэмжээг тооцоолъё. Энэ хэмжээний мэдээллийн I(X,Y) нь Y санамсаргүй хэмжигдэхүүнийг ажиглах үед X санамсаргүй хэмжигдэхүүний энтропийн бууралттай тэнцүү байна:

H(X) ба H Y (X)-ийн илэрхийллүүдийг (15)-д орлуулъя:


Эхний нийлбэрт бид p(A k)=p(A k B 1)+ p(A k B 2)+ p(A k B 3)…+ p(A k B M) гэж солино. Энэ тэгш байдал үнэхээр явагддаг, учир нь A k B 1 , A k B 2 , … A k B M үйл явдлууд нь хосоороо үл нийцэх ба A k тохиолдвол тэдгээрийн аль нэг нь тохиолдох болно. Эсрэгээр, хэрэв B j-ийн аль нэг нь тохиолдвол A k бас тохиолдоно. Өөрчлөлтийг үргэлжлүүлснээр бид дараахь зүйлийг олж авна.

Тиймээс бид өөр санамсаргүй хэмжигдэхүүн Y-г ажиглахдаа X санамсаргүй хэмжигдэхүүний талаарх мэдээллийн хэмжээг тооцоолох томъёотой байна.

(4.6)

Хэрэв санамсаргүй хэмжигдэхүүнүүд (эсвэл үйл явдлууд) бие даасан байвал тэдгээрийн хувьд p(A k B j) = p (A k) p (B j) хамаарал явагдана - хоёр үйл явдлын хамтарсан тохиолдох магадлал нь үржвэртэй тэнцүү байна. эдгээр үйл явдлын магадлал.

I(X,Y) утгын тухайд дараах мэдэгдлүүд үнэн байна.

Бие даасан санамсаргүй хэмжигдэхүүнүүдийн хувьд бид олж авдаг

Энэ нь санамсаргүй хэмжигдэхүүн Y-г ажиглах нь X санамсаргүй хэмжигдэхүүний талаарх мэдээллийг авахад ямар ч давуу тал өгөхгүй гэсэн үг юм.

Бусад тохиолдолд I(X,Y) >0 байх ба дараах тэгш бус байдал биелнэ.

Y=F(X) функциональ холболт байгаа тохиолдолд тэгш байдал бий болно. Энэ тохиолдолд Y-г ажиглах нь өгдөг бүрэн мэдээлэлтухай X. Хэрэв Y=X бол I(X,X) = H(X).

I(X,Y) хэмжигдэхүүн нь тэгш хэмтэй: I(X,Y) = I(Y,X). Энэ нь санамсаргүй хэмжигдэхүүн Y-ийн ажиглалт нь санамсаргүй хэмжигдэхүүн Х-ийн тухай Х санамсаргүй хэмжигдэхүүнийг ажиглахад Y санамсаргүй хэмжигдэхүүнтэй ижил хэмжээний мэдээллийг өгдөг гэсэн үг юм. Хэрэв бид стохастик хамааралтай хоёр санамсаргүй хэмжигдэхүүнийг авч үзэх юм бол Мэдээллийн онолын тусламжтайгаар аль нь шалтгаан, аль нь үр дагавар болохыг тогтоох боломжгүй юм.

Өмнө дурьдсанчлан мэдээллийг үр дүнтэй кодлохын тулд мессежийн статистик хамаарлыг харгалзан үзэх шаардлагатай. Бидний ойрын зорилго бол хамааралтай мессежийн дарааллын мэдээллийн шинж чанарыг хэрхэн тооцоолох талаар сурах явдал юм. Хоёр мессежээр эхэлье.

Чуулгануудыг авч үзье X= {x i) Мөн Ю={y j) болон тэдний ажил XY={(x i,y j), П(x i,y j)). Аливаа тогтмол хувьд y jÎ Юбарьж болно нөхцөлт хуваарилалтмагадлал П(x i/y j) багц дээр Xмөн хүн бүрт x iÎ Xөөрийнхөө мэдээллийг тооцоолно

гэж нэрлэдэг нөхцөлт өөрийн мэдээлэлзурвасууд x iтогтмол үед y j.

Өмнө нь бид чуулгын энтропи гэж нэрлэдэг байсан Xмессежийн дундаж мэдээлэл x iÎ X. Үүний нэгэн адил нөхцөлт мэдээллийг дундажлана I(x i/y j) By x iÎ X, бид үнэ цэнийг авдаг

,

нөхцөлт энтропи гэж нэрлэдэг Xтогтмол үед y jÎ Ю. гэдгийг анхаарна уу энэ тодорхойлолтхэзээ нь тодорхойгүй байна П(x i/y j)=0. Хэлбэрийн илэрхийлэл гэдгийг тэмдэглэх нь зүйтэй zбүртгэл zгэж тэглэх хандлагатай байна 0 ба үүний үндсэн дээр бид үсэгнүүдэд тохирох энтропийн нэр томъёог тоолно x iмагадлалаар П(x i/y j)=0, тэгтэй тэнцүү.

Шинээр нэвтрүүлсэн энтропи Х(X/y j) нь санамсаргүй хэмжигдэхүүнээс хамаардаг учир санамсаргүй хэмжигдэхүүн юм y j. Хос магадлалын чуулгын санамсаргүй бус мэдээллийн шинж чанарыг олж авахын тулд бүх утгын дундажийг хийх шаардлагатай. y j .Хэмжээ

дуудсан нөхцөлт энтропичуулга Xтогтмол чуулгатай Ю. Нөхцөлт энтропийн хэд хэдэн шинж чанарыг тэмдэглэе.

2. , ба тэгш байдал нь зөвхөн чуулга бүрдсэн тохиолдолд л үүсдэг XТэгээд Юбие даасан.

.

5. Түүгээр ч барахгүй чуулга бүрдвэл тэгш байдал бий болно XТэгээд Юбүх хүнд нөхцөлт бие даасан байдал зО З.

Ярилцъя" физик утга» нөхцөлт энтропийн шинж чанарыг томъёолсон. 2-р шинж чанар нь чуулгын нөхцөлт энтропи нь түүний болзолгүй энтропиас хэтрэхгүй гэж заасан. 5-р өмч нь энэхүү мэдэгдлийг бэхжүүлж байна. Үүнээс үзэхэд нөхцөлт энтропи нь нөхцлийн тоо нэмэгдэх тусам нэмэгдэхгүй. Энэ хоёр баримт нь гайхмаар зүйл биш юм; нэмэлт мэдээлэлчуулгын тухай X, бусад чуулгын мессежүүдэд агуулагдсан, дунджаар,чуулгын мэдээллийн агуулгыг (тодорхойгүй) бууруулдаг X. Тэмдэглэл" дунджаар"Энд маш чухал, учир нь тэгш бус байдал H( X/y j) ≤ H( X), ерөнхийдөө үнэн биш юм.

1-5-р шинж чанарууд нь тэгш бус байдлыг илэрхийлдэг

, (11.4)

гагцхүү чуулга хамтран бие даасан байх тохиолдолд тэгш эрх боломжтой X 1 , …, Xn.

Энтропийг тооцоолох нь эх үсгийг дамжуулах эсвэл хадгалах зардлыг тооцоолох явдал гэдгийг санаарай. Нөхцөлт энтропийн шинж чанарууд нь захидал дамжуулахдаа үүнийг харуулж байна Xn+ 1 өмнөх үсэг гэдгийг ашиглах ёстой X 1 , …, Xnхүлээн авагч талд аль хэдийн мэдэгдэж байна. Энэ нь оронд нь зөвшөөрөх болно Х(Xn+1) арай бага зарцуулдаг Х(Xn +1 /X 1 ,…,Xn) бит. Үүний зэрэгцээ тэгш бус байдал (11.4) нь эдийн засгийн кодчилолд өөр хандлагыг харуулж байна. Энэ тэгш бус байдлаас харахад кодчилол хийхээс өмнө үсгүүдийг блок болгон нэгтгэх ёстой бөгөөд эдгээр блокуудыг шинэ "өргөтгөсөн" эхийн үсэг гэж үзэх ёстой. Зардал нь үсгийн бие даасан кодчилолтой харьцуулахад бага байх болно. Хоёр аргын аль нь илүү үр дүнтэй вэ?

Доор бид эдгээр хоёр аргын тоон тодорхойлолтыг илүү нарийвчлалтай өгөх болно, гэхдээ үүнээс өмнө магадлалын онолын зарим тодорхойлолтыг эргэн санах хэрэгтэй.

Цаашид танилцуулахын тулд бидэнд магадлалын онолын зарим мэдэгдэж байгаа мэдээлэл хэрэгтэй болно.

1) Санамсаргүй үйл явдлын чуулгын магадлалын шинж чанарууд АТэгээд IN:

P(A,B)=P(A)*P(B/A); -> P(B/A)=P(A,B)/P(B);

P(A,B)=P(B)*P(B/A); -> P(A/B)=P(A,B)/P(A);

P(A/B)=P(A)*P(B/A)/P(B);

P(B/A)=P(B)*P(A/B)/P(A); АТэгээд INХэрэв

бие даасан, тэгвэл

P(A/B)=P(A); P(B/A)=P(B):

P(A,B)=P(A)*P(B);

Дахин хэлэхэд, салангид мессежийн эх сурвалжийн хувьд Шеннон энтропийн тодорхойлолт:

Түүний шинж чанарууд: ;

H > 0мН;

сүх = лог N Бие даасан эх сурвалжийн тусламжтайгаар;

H(A,B)=H(A)+H(B)

НӨХЦӨТ ЭНТРОПИ Хэрэв системийн элементүүдийн төлөв байдал нь бие биенээсээ хамаардаггүй эсвэл нэг системийн төлөв нь нөгөө системийн төлөвөөс хамаардаггүй бол системийн зарим элемент (эсвэл зарим систем) аль нэгэнд байх нь тодорхойгүй байна. боломжит төлөвүүдийг системийн бие даасан элементүүдийн магадлалын шинж чанараар бүрэн тодорхойлох болно. Энэ тохиолдолдтодорхой хэмжээ

Системийн элементийн төлөв эсвэл мессежийн тэмдэгт бүрийн мэдээллийг дундаж энтропи гэж нэрлэдэг бөгөөд үүнийг тооцоолохдоо илэрхийлэлийг ашигладаг. Мессежийн тэмдэгт ногдох мэдээллийн дундаж хэмжээг тооцоолохдоо харилцан хамаарлыг харгалзан үзнэ.

Зарим үйл явдлууд бусадтай харьцуулахад тохиолдох нөхцөлт магадлал ба үүнээс үүссэн энтропийг нөхцөлт энтропи гэж нэрлэдэг. б 1 , а 2 - б 2 Мэдээлэл дамжуулах сувгаар санамсаргүй A тэмдгийн эх үүсвэрээс мессеж дамжуулахыг авч үзье. Энэ тохиолдолд найдвартай дамжуулалтаар a 1 тэмдгийг дамжуулахдаа бид олж авна гэж үздэг б 1 гэх мэт. Энэ тохиолдолд хөндлөнгийн оролцоотой сувгийн хувьд дамжуулалт гажуудсан, тэмдэг хүлээн авах үед а 1 бид зөвхөн тэмдгийг дахин дамжуулах магадлалын тухай ярьж болно а 2 , а 3 . Магадгүй дүрүүд нь дамжуулагдсан байж магадгүй юм

гэх мэт. Гажуудлыг матрицаар тодорхойлнонөхцөлт магадлал П(А/ Б)={ х(а би / б би }.

суваг

Дуу чимээ бүхий холбооны сувгаар дохио дамжуулах үйл явцыг авч үзээд нөхцөлт энтропийг тооцоолох механизмыг ойлгоход ашиглацгаая.

а Хэрэв мессежийн эх үүсвэр нь тэмдэгтүүдийг үүсгэдэг л 2 , А би , ..., a n

..., А

магадлалын дагуу 1 х(а 2 ), х (а би ) ... ..., х (а n ),

), ..., х (а

б 1 дамжуулах сувгийн гаралт дээр бид тэмдэгтүүдийг хүлээн авдаг 2 би , ..., б n

..., б

магадлалын дагууб 1 p(б 2 ), p ( би ), ..., х (бб n ),

, ..., p ( дараа нь нөхцөлт энтропийн тухай ойлголта би ) H (B/ а би , илгээх замаар юуны тодорхойгүй байдлыг илэрхийлдэг б бибид авах болно Х., үзэл баримтлал би ) (А/б б би хүлээн авсны дараа үлддэг тодорхойгүй байдал а бияг юу илгээсэн б j . Үүнийг дээрх зурагт графикаар харуулав. Хэрэв харилцаа холбооны сувагт хөндлөнгийн оролцоо байгаа бол аль ч дохиог янз бүрийн магадлалаар хүлээн авах боломжтой. б jба эсрэгээр, хүлээн авсан дохио а би . Хэрэв харилцаа холбооны сувагт хөндлөнгийн оролцоо байхгүй бол илгээсэн тэмдэг нь үргэлж байдаг А 1 хүлээн зөвшөөрөгдсөн тэмдэгттэй таарч байна б 1 , А 2 2 , ..., А n n .

Энэ тохиолдолд H(A) мессежийн эх үүсвэрийн энтропи нь H(B) мессеж хүлээн авагчийн энтропитэй тэнцүү байна.. Хэрэв харилцаа холбооны сувагт хөндлөнгийн оролцоо байгаа бол энэ нь дамжуулагдсан мэдээллийн зарим хэсгийг устгах эсвэл гажуудуулдаг.

Мэдээллийн алдагдлыг хувийн болон ерөнхий нөхцөлт энтропигоор бүрэн дүрсэлдэг. Сувгийн матрицыг ашиглан хэсэгчилсэн болон ерөнхий нөхцөлт энтропийг тооцоолоход тохиромжтой. "Сувгийн матриц" гэсэн нэр томъёо нь: статистикийн хувьд тодорхойлсон матриц энэ сувагхолболт, товчлолд ашигласан. Хэрэв харилцаа холбооны сувгийг мессежийн эх үүсвэрийн талаас тодорхойлсон бол (жишээ нь илгээсэн дохио нь мэдэгдэж байгаа бол) дохио дамжуулах үед гарах магадлал. а би хөндлөнгийн оролцоотой холбооны сувгаар бид дохио хүлээн авах болно б j нөхцөлт магадлал гэж тэмдэглэсэн p(б j /ai).мөн сувгийн матриц нь хэлбэртэй байна

Диагональ (томоор) дагуу байрлах магадлал нь зөв хүлээн авах магадлалыг тодорхойлдог, үлдсэн хэсэг нь худал юм. Сувгийн матрицын баганыг дүүргэх цифрүүдийн утга нь гол диагональаас холдох тусам буурдаг бөгөөд хөндлөнгийн оролцоо бүрэн байхгүй тохиолдолд үндсэн диагональ дээр байрлах цифрүүдээс бусад нь тэгтэй тэнцүү байна.

Тэмдгийг дамжуулж байна а биөгөгдсөн холбооны суваг дахь мессежийн эх үүсвэрээс тухайн хэлбэрийн нөхцөлт магадлалын хуваарилалтаар тодорхойлогддог p(б j би ), магадлалын нийлбэр үргэлж нэгтэй тэнцүү байх ёстой. Жишээлбэл, дохионы хувьд А 1

Нэг дохионы хувьцааны мэдээллийн алдагдал а бихэсэгчилсэн нөхцөлт энтропи ашиглан тайлбарласан болно. Жишээлбэл, дохионы хувьд а 1

Дүн дүнгийн дагуу гүйцэтгэнэ j,учир нь би-р муж (д энэ тохиолдолдэхний) тогтмол хэвээр байна.

Дамжуулах алдагдал бүх дохиоӨгөгдсөн холбооны сувгийг ерөнхий нөхцөлт энтропи ашиглан тайлбарлав. Үүнийг тооцоолохын тулд та бүх хэсэгчилсэн нөхцөлт энтропийг нэгтгэн дүгнэх хэрэгтэй, өөрөөр хэлбэл давхар нийлбэрийг хийх хэрэгтэй. биболон өөр j.

Мэдээллийн эх тэмдэг үүсэх магадлал тэгш бус тохиолдолд тэмдэг тус бүрийн харагдах магадлалыг түүнд тохирох хэсэгчилсэн нөхцөлт энтропийг үржүүлэх замаар харгалзан үзнэ. Энэ тохиолдолд нийт нөхцөлт энтропи

Нөхцөл байдлыг гаднаас нь шинжвэл мессеж хүлээн авагч(энэ нь хүлээн авсан дохио мэдэгдэж байх үед) , дараа нь тэмдгийн хүлээн авсан хамт б jтэмдэгтүүдийн аль нэгийг илгээсэн гэж таамаглаж байна а 1 , а 2 , …, а би ,…, а м. Энэ тохиолдолд сувгийн матриц нь дараах хэлбэртэй байна.

Энэ тохиолдолд нөхцөлт магадлалын нийлбэр нь мөрөнд биш, харин сувгийн матрицын баганад нэгтэй тэнцүү байх ёстой.

Хэсэгчилсэн нөхцөлт энтропи

Мөн нийт нөхцөлт энтропи

Системийн нийт нөхцөлт энтропиА системтэй харьцуулахад B нь судалж буй системийн элементүүдийн төлөвийг илэрхийлэх мессежийн эх сурвалжийн аль ч тэмдэгт агуулагдах мэдээллийн хэмжээг тодорхойлдог.

Ерөнхий нөхцөлт энтропи нь бүх тэмдэгтүүдийн дунджаар тодорхойлогддог. А битус бүрийн тохиолдох магадлалыг харгалзан. Энэ нь эх тэмдгийн харагдах магадлал ба хаяг хүлээн авагч тэмдгийг хүлээн авсны дараа үлдэх тодорхойгүй байдлын үржвэрийн нийлбэртэй тэнцүү байна.

Хэрэв харилцаа холбооны сувагт хөндлөнгийн оролцоо байхгүй бол үндсэн диагональ дээр байрлахаас бусад сувгийн матрицын бүх элементүүд тэгтэй тэнцүү байна. Энэ нь дохио дамжуулах үед гэдгийг харуулж байна А 1 бид гарцаагүй авна б 1 дамжуулах үед А 2 - б 2 , ..., А м - б м. Зөв дохио хүлээн авах магадлал өндөр болно болзолгүй, болон нөхцөлт энтропи тэг болно.

Тэмдгийг дамжуулах үед нөхцөлт энтропи хамгийн дээд хэмжээндээ хүрдэг А бимагадгүй хамт тэнцүү магадлалхүлээн авсан дохионы аль нэг нь б 1 , б 2 , ..., б м .



Танд нийтлэл таалагдсан уу? Найзуудтайгаа хуваалцаарай!