Bulanık kümelerle mantıksal işlemler. NPE'nin çalışma prensibi

Bulanık kümelerde gerçekleştirilebilecek temel işlemlerden bazıları şunlardır.

1. Ek bulanık küme A sembolüyle gösterilir ve aşağıdaki şekilde tanımlanır:

(5.15)

Toplama işlemi mantıksal olumsuzlamaya karşılık gelir. Örneğin, eğer A bulanık kümenin adıdır, o halde "A değil"(aşağıdaki örneğe bakınız) olarak anlaşılmaktadır.

2. Dernek bulanık kümeler A Ve İÇİNDE ile gösterilir A+B(veya AÈB) ve belirlenir :

(5.16)

Birlik maçları mantıksal bağlaç « veya" Örneğin, eğer A Ve İÇİNDE– bulanık kümelerin adları, ardından “ girişi A veya b"şöyle anlaşılıyor A+B.

sen Daha itibaren .

Yorum: mantıksal bağıntı akılda tutulmalıdır. Ú V bu içerikte tanım gereği maksimum anlamına gelir (yani); Ù min (yani ) anlamına gelir.

3. Kavşak A Ve İÇİNDE belirlenmiş AÇB ve aşağıdaki gibi tanımlanır:

(5.17)

Kesişme mantıksal bağlayıcıya karşılık gelir " sen"yani .

A ve B=AÇB(5.18)

Elemanların üyelik derecesi belirlenirken sen yeni bulanık küme, seç daha küçük(yukarıdaki nota bakın).

4. Ürün A Ve İÇİNDE ile gösterilir AB ve formülle belirlenir

(5.19)

Eğer (5.20)

Örnek 5.5. Eğer

U=1+2+…+10

A=0,8/3+1/5+0,6/6 (5.21)

B=0,7/3+1/4+0,5/6,

O ØА=1/1+1/2+0,2/3+1/4+0,4/6+1/7+1/8+1/9+1/10

A+B=0,8/3+1/4+1/5+0,6/6

AÇB=0,7/3+0,5/6 (m'nin iki değerinden min alınmıştır)(5.22)

AB=0,56/3+0,3/6

0,4A=0,32/3+0,4/5+0,24/6

5. Kartezyen ürün bulanık kümeler A 1, …, A n evrensel setleri U 1 ,…, U n buna göre belirtildi A 1 `…'A n ve kümenin bulanık bir alt kümesi olarak tanımlanır U 1 ´…´U nüyelik fonksiyonuna sahiptir.

Örnek 5.6. Eğer

U 1 =U 2 =3+5+7

A 1 =0,5/3+1/5+0,6/7

A 2 =1/3+0,6/5 ise

A 1 `A 2 =0,5/3,3+1/5,3+0,6/7,6+0,5/3,5+0,6/5,5+0,6/7,5

Bulanık ilişkiler.

Bulanık tutum R: X®Y temsil etmek bulanık küme Kartezyen ürün X'Y. R iki değişkenin üyelik fonksiyonu kullanılarak şu şekilde tanımlanır:

(5.25)

X'Y kümesindeki bulanık bir ilişki çiftlerden oluşan bir koleksiyondur

(5.26)

Nerede - işlev bulanık ait ilişki R Bulanık kümenin üyelik fonksiyonu ile aynı anlama sahiptir.

Hiç N- Arary ilişki Kartezyen çarpımın bulanık bir alt kümesidir X 1'X 2'…'X n, Ve

(5.27)

Bulanık ilişkilere örnekler:

« X neredeyse eşit e»,

« X Daha büyük e»,

« Aönemli ölçüde tercih edilir İÇİNDE».

Örnek 5.7.Öyleymiş gibi yapalım X=(Yuri, Sergey), Y=(Maxim, Mikhail).


Daha sonra X ve Y kümelerinin elemanları arasındaki "benzerliğin" ikili bulanık ilişkisi şu şekilde yazılabilir:

benzerlik=0,8/(Yuri, Maxim)+0,6/(Yuri, Mikhail)+0,2/(Sergei, Maxim)+0,9/(Sergei, Mikhail).

Ayrıca, bu tutumşeklinde temsil edilebilir ilişki matrisleri.

(5.28)

burada (i,j)- inci eleman değere eşit için işlevler Ben-inci değer X ve j'inci değer sen.

Eğer R- davranış X®Y(veya aynı şey olan ilişki X'Y), A S- davranış Y®Z, ardından kompozisyon R Ve S bulanık bir ilişkidir X®Z, belirtilen R°S ve formülle tanımlanır

nerede ° kompozisyon işareti, işaretler Ú Ve Ù buna göre belirtmek maksimum Ve dk., Vyüst kenar değer aralığına göre en.

Burada (5.29) ilişkilerin bileşimi.

İfade (5.29) maksimum minimum çarpımı belirler R Ve S.

Evet, için gerçek sayılar A Ve B:

(5.30)

(5.31)

Eğer X,Y,Zsonlu kümeler, sonra ilişki matrisi R°S ilişki matrislerinin maksimum minimum ürünüdür R Ve S. Matrislerin maxmin çarpımında toplama ve çarpma işlemi yerine işlemler kullanılır Ú Ve Ù sırasıyla.

Bir maxmin ürünü örneği

(5.32)

Burada satır sayısı sütun sayısına eşit olmalıdır. Satır sütunla çarpılır ve alınır maksimum değer itibaren minimum değerler buhar.

Bulanık mantık ve
nöral ağlar

"Bulanık mantık" terimi

"Bulanık mantık" terimi
Dar anlamda,
bulanık mantık mantıksal hesaplamadır,
bu çok anlamlılığın bir uzantısıdır
mantık.
Geniş anlamda
bulanık mantık bulanık teoriye eşdeğerdir
Setler.

Kurucu

İlk dönem
Bulanık mantık
(bulanık mantık) şuydu
tanıtıldı
Amerikan
profesör
1965'te Lotfi Zadeh
işteki yıl
“Bulanık
ayarlar”
dergi
“Bilişim ve
kontrol".
Lotfi olarak Azerbaycan'ın Bakü kentinde doğdu.
Rusça'dan Aleskerzadeh (veya Asker Zadeh)
Azerbaycanlı İranlı anne ve baba
Menşei; 1932'den beri İran'da yaşıyor
Tahran Üniversitesi'nde okudu; 1944'ten
Amerika Birleşik Devletleri; çalışıyor
Kaliforniya Üniversitesi (Berkeley).

Örnek

Şubat 1991'de vardı
ilki inşa edildi
<интеллектуальная>
çamaşır makinesi, içinde
hangi kontrol sistemi
birleşik bulanık mantık.
Otomatik olarak algılama
bulanık giriş faktörleri:
çamaşırların hacmi ve kalitesi,
kirlilik seviyesi,
toz türü vb.),
çamaşır makinesi
en uygun olanı seçtim
3800'den itibaren yıkama modu
olası.

El bilgisayarlarında el yazısı karakterlerin tanınması
(defterler)
(Sony)
Çamaşır makinelerinin tek tuşla kontrolü
(Matsushita, Hitatchi)
El yazısı metinlerin, nesnelerin, seslerin tanınması
(CSK, Hitachi, Hosai Üniv., Ricoh)
Kolaylığı artırmak için metroları yönetmek
sürüş, durma doğruluğu ve enerji tasarrufu (Hitachi)
Arabalarda benzin tüketiminin optimize edilmesi
(NOK, Nippon Denki Tools)
Geliştirilmiş kontrol hassasiyeti ve verimliliği
asansörler
(Fujitec, Hitachi, Toshiba)

Bulanık mantık uygulamalarına örnekler:

Baraj kapaklarının otomatik kontrolü
hidroelektrik santralleri
Basitleştirilmiş robot kontrolü
Spor etkinliklerini yayınlarken televizyon kameralarını doğrultmak
Verimli ve istikrarlı araç kontrolü
motorlar
Ekonomik araç hız kontrolü
(Nissan, Subaru)
Optimize Edilmiş Otobüs Programı Planlaması (Toshiba)
Belge arşivleme sistemleri
(Mitsubishi Elek.)
Deprem Tahmin Sistemleri(Japonya)
Kanser teşhisi
(Kawasaki Tıp Okulu)

Bulanık küme

Bulanık mantığın temelleri 60'lı yılların sonlarında atılmıştır.
ünlü Amerikalı matematikçinin eserleri
Latfi Zadeh
E bir evrensel küme olsun, x, E'nin bir elemanı olsun ve R,
belirli bir mülk.
O zaman E evrensel kümesinin bulanık alt kümesi A
sıralı bir çiftin kümesi olarak tanımlanır
,
A(A(x)/x)
A(x)
Nerede
karakteristik fonksiyon Aksesuarlar
(veya sadece bir üyelik fonksiyonu) alarak
sıralı bir M kümesindeki değer
(örneğin, M = ).
Üyelik fonksiyonu dereceyi (veya seviyeyi) gösterir
x elemanının A alt kümesine üyeliği.
18

Bulanık küme yazma örnekleri

E=(x1, x2, x3, x4, x5), M=; bir – eleman
hangisi için ayarla
A (x1) 0,2 A (x2) 0 A (x3) 0,4 A (x4) 1 A (x5) 0,7
1)
2)
3)
O zaman A şu şekilde temsil edilebilir:
A=(0,2/x1;0/x2;0,4/x3;1/x4;0,7/x5),
A=(0,2/x1+0/x2+0,4/x3+1/x4+0,7/x5),
bir=
x1
x2 x3
x4 x5
0,2
0
0,4
1
0,7

Bulanık küme örneği

Bulanık kümelerin temel özellikleri

M= ve A elemanlarını içeren bir bulanık küme olsun.
evrensel küme E ve küme
aksesuarlar M.
destek A (x)
Yükseklik:
.
xE
A(x)1
eğer öyleyse
ise A bulanık kümesi normaldir.
xE
destek A (x) 1
Eğer x E ise
, daha sonra bulanık A kümesi
normalin altında.
20

Bir bulanık küme eğer x E A (x) 0 ise boştur
Boş olmayan bir normal altı küme olabilir
şu formülü kullanarak normalleştirin: A (x): A (x)
.
destek A (x)
xE
A (x) 1 ise bulanık küme tek modludur
yalnızca E'nin bir x'inde.
A bulanık kümesinin taşıyıcısı olağandır
A (x) 0 özelliğine sahip alt küme, yani A (x / x E, A (x) 0)
A(x) 0,5 olan x E elemanları,
A kümesinin geçiş noktaları denir.
A'nın -düzey alt kümesi bir kümedir
Hangi
Örnek:
“Birkaç”=0,5/3+0,8/4+1/5+1/6+0,8/7+0,5/8; onun
özellikler: yükseklik=1, ortam =(3,4,5,6,7,8),
geçiş noktaları – (3,8).

Dil değişkeni "Yaş"

LP'nin "yaş" kelimesinin "genç" gibi anlamlarını yorumlama göreviyle karşı karşıya kalalım.
yaş, “ileri” yaş veya “geçiş” yaşı. “Yaş”ı LP olarak tanımlayalım.
O halde bu dilin anlamları “genç”, “yaşlı”, “geçiş” olacaktır.
değişken. LP "yaş" değerlerinin daha eksiksiz bir temel seti aşağıdaki gibidir:
B = (bebek, çocuk, genç, genç, olgun, yaşlı, bunak).
LP “yaşı” için temel ölçek, 0'dan 120'ye kadar olan sayısal bir ölçektir.
Yaşadığımız yıl sayısı ve üyelik fonksiyonu bu konuda ne kadar kendimize güvendiğimizi belirliyor.
O verilen miktar Yıllar bu yaş kategorisinde sınıflandırılabilir.
02:09
12

Bulanık kümelerin özellikleri

Bir işlevi tanımlama yöntemleri
Aksesuarlar
Doğrudan (uzman anketleri)
Dolaylı (eşleştirilmiş karşılaştırmalar)
Soldan sağa - işlevler

Üyelik fonksiyonunu belirleme yöntemleri

Sol-sağ bulanık sayılar

L-R bulanık sayılar

.
Bulanık kümelerdeki işlemler
Mantıksal işlemler
1. Açın. A ve B evrenselde bulanık kümeler olsun
E kümesi. O halde x E A (x) B (x) ise A, B'nin içinde bulunur
Tanım: A B
2. Eşitlik. A ve B eşittir eğer x E A (x) B (x) Gösterim: A=B
3. Ekleme. M = , A ve B'nin tanımlı bulanık kümeler olduğunu varsayalım.
E. A ve B birbirini tamamlarsa eğer x E A (x) 1 B (x)
Tanım: B A
4. Kesişme – içeren en büyük bulanık alt küme
aynı anda A ve B (A B): A B (x) min(A (x), B (x))
5. Birleşim – en küçük bulanık alt küme,
üyelik fonksiyonu (A B) ile hem A hem de B dahil:
A B (x) maks(A (x), B (x))
6. Fark – üyelik fonksiyonuyla işlem (A B A B):
A B (x) A B (x) min(A (x), 1 B (x))
7. Ayırıcı toplam – mantıksal işlem işlevli
aksesuarlar (A B (A B) (B A) (A B) (A B)):
A B (x) maks(min(A (x), 1 B (x));min(1 A (x), B (x)))

Bulanık kümelerdeki işlemler

Örnek
A, 5'ten 8'e kadar bir bulanık aralık olsun ve B
4 civarında bulanık sayı

Örnek

5 arasındaki bulanık küme kesişimi
ve 8 VE (VE) yaklaşık 4 (mavi çizgi).

Union Fuzzy seti
5 ve 8 VEYA (VEYA) yaklaşık 4

Toplama (olumsuzlama) anlamı DEĞİL

Konsantrasyon
"Çok" kelimesinin dilsel anlamı

Bulanıklaştır (veya bulanıklaştır)
Dilsel anlam
"İyi değil"

Güçlendirme veya zayıflatma
dilsel kavramlar
Dilsel kavramların güçlendirilmesi veya zayıflatılması sağlanır
özel niceleyicilerin tanıtılması. Örneğin, eğer
“yaşlılık çağı” kavramı şu şekilde tanımlanmaktadır:
o zaman “çok yaşlılık” kavramı şu şekilde tanımlanacaktır:
yani “çok yaşlılık” için NM şöyle görünecek

Dilsel kavramların güçlendirilmesi veya zayıflatılması

Örnek

Örnek

Üçgen normları ve
uyumlu
Üçgen normu
Üçgen konorma

Üçgen normları ve uygunlukları

Cebirsel işlemler
1. A ve B'nin cebirsel çarpımı gösterilir
AB
ve şu şekilde tanımlanır:
x E A B (x) A (x) B (x)
2. Cebirsel toplam bu kümelerden biri A ile gösterilir
B
ve şu şekilde tanımlanır:
x E A И B (x) A (x) B (x) A (x) B (x)
Cebirsel çarpım işlemine göre belirlenir
Bir bulanık kümenin α kuvvetine yükseltilmesi işlemi,
nerede α –
A
pozitif sayı. Bulanık küme
azimli
üyelik fonksiyonu (x.)
A
A
Üs almanın özel bir durumu aşağıdaki gibidir.
3. Konsantrasyon (sıkıştırma) işlemi CON (A) A2
4. Germe operasyonu DIL(A) A
0.5
5. Bir sayıyla çarpma. Eğer α pozitif bir sayı ise
max A(x)1 ise, bulanık αA kümesi şu fonksiyona sahiptir:
xA
Aksesuarlar:
bir (x) bir (x)

Uygulama örneği
üçgen normları ve uyum

Üçgen normların ve uygunlukların uygulanmasına bir örnek

Bulanık ve
dilsel
değişkenler. Bulanık
sayılar
Bulanık mantık ve
nöral ağlar

Bulanık ilişkiler.

fuzzy'un tanımı
değiştirmek

Bulanık ilişki örneği

Örnek: bulanık değişken
« yüksek büyüme»
X - “yüksek büyüme” (isim
değişken),
sen = ,
- üyelik fonksiyonu
verilen X evrenindeki elementler
bulanık değişken.
Açıklama: Bulanık değişken, adlandırılmış bir bulanık kümedir

Örnek gösterim 1

linguistik'un tanımı
değişken

Örnek gösterim 2

Örnek: LP “oda sıcaklığı”
β = “oda sıcaklığı” dilsel değişkenin adıdır;
U = – tanımın evreni;
T = ("soğuk", "rahat", "sıcak") - temel terim seti;
G- sözdizimi kuralları kullanarak yeni terimler üretmek
nicelik belirteçleri “ve”, “veya”, “değil”, “çok”, “daha ​​fazla veya daha az”;
M, her yeni terimi atayan bir prosedürdür.
kurallara göre üyelik fonksiyonu (yani bulanık bir kümenin tanımlanması):
A ve B terimleri μa(x) ve μB(x) üyelik fonksiyonlarına sahip olsaydı
Buna göre yeni şartların üyelik işlevleri olacaktır:
Niceleyici
Üyelik fonksiyonu:
değil
çok t
az ya da çok
AiV
maksimum(μA(x), μB(x))
A veya b
min(μA(x), μB(x))

Pazar-Ürün Modeli

Örnek: LP “disiplin”
β – disiplin;
T – (“Zor disiplin”, “İlginç”
disiplin”, “Gelecekteki çalışmalarda faydalı olacaktır”);
U = ["Programlama", "Veritabanları",
“Bulanık Mantık”, “Geçmiş”] – ayarla
yön öğrencilerinin incelediği disiplinler
"İşletme Bilişimi";
G – temel termal kümenin elemanlarını numaralandırma prosedürü;
M – uzman araştırma prosedürü.

Bulanık ilişkiler üzerinde işlemler

Örnek: parça kalınlığı
Uzmanın, üretilen ürünün kalınlığını aşağıdakileri kullanarak belirlemesine izin verin:
“küçük kalınlık”, “orta kalınlık” ve “büyük kalınlık” kavramları,
bu durumda minimum kalınlık 10 mm, maksimum 80 mm'dir.
Böyle bir açıklama kullanılarak resmileştirilebilir
sonraki dilsel değişken< β, T, X, G, M>, Nerede
β – ürün kalınlığı;
T – (“küçük kalınlık”, “orta kalınlık”, “büyük kalınlık”);
sen = ;
G – bağlaçları kullanarak yeni terimlerin oluşturulması prosedürü ve, veya ve
çok, değil, biraz vb. değiştiriciler. Örneğin: “küçük veya
ortalama kalınlık” (Şekil 24), “çok küçük kalınlık” vb.;
M - X = üzerinde bulanık alt kümeleri belirleme prosedürü
A1 = “küçük kalınlıkta”, A2 = “orta kalınlıkta”, A3 = “büyük kalınlıkta”
kalınlığı" ve ayrıca G(T)'den gelen terimler için bulanık kümeler
bulanık bağlaçları ve değiştiricileri çevirme kurallarıyla ve veya,
çok, biraz vb.

Bulanık ilişkiler üzerinde işlemler

Örnek: parça kalınlığı
Bulanık küme üyelik fonksiyonları:
“küçük kalınlık” = A1, “orta kalınlık” = A2, “büyük kalınlık” = A3
Üyelik fonksiyonu
bulanık küme “küçük veya orta kalınlıkta” = A1 U A1

Bulanık ilişkileri birleştirmeye bir örnek

İlaç türleri
LP
Disiplin
Hız
oyuncu
takımlar
Boyut
Yaş
Sayısal
Sayısal olmayan
Banka

Bulanık ilişkilerin kesişimine örnek

Bulanık sayılar
Bulanık sayılar, tanımlanan bulanık değişkenlerdir. sayı ekseni, yani bulanık
sayı, aşağıdaki fonksiyonla R kümesi üzerinde bir bulanık A kümesi olarak tanımlanır.
Aksesuarlar
Bulanık sayı, evrensel kümenin bulanık bir alt kümesidir
normal ve dışbükey fonksiyona sahip gerçek sayılar
aksesuarlar, yani:
a) Üyelik fonksiyonunun bire eşit olduğu bir destek değeri vardır,
Ve
b) Maksimumdan sola veya sağa doğru ayrılırken üyelik fonksiyonu
artışlar.
Örnek:
“Kalınlık” (T = (“küçük kalınlık”, “orta kalınlık”, “büyük kalınlık”))
U tanımının alanına bağlı olarak olası değerler: içinde bu durumda değerler
Dilsel değişken “ürün kalınlığı” şu şekilde tanımlanabilir:
“yaklaşık 20 mm”, “yaklaşık 50 mm”, “yaklaşık 70 mm” yani bulanık sayılar şeklinde.

Şarkı örnekleri

Bulanık işlemler
sayılar

Şarkı örnekleri

L-R bulanık sayılar

İki bulanık ilişkinin bileşimi

L-R bulanık sayılar

Eğitim için adayların seçimi

L-R bulanık sayılar
Toleranslı bulanık sayılara (L-R) tipi yamuk denir
sayılar.
Bir parametreyi niteliksel olarak değerlendirirsek, örneğin şunu söyleyerek: "Bu değer
parametre ortalamadır", açıklayıcı bir giriş girmelisiniz
"Ortalama yaklaşık olarak a'dan b'ye kadardır" gibi bir ifade
bu bir nesne uzman değerlendirmesi(bulanık sınıflandırma) ve
daha sonra bulanık sınıflandırmaları modellemek için kullanılabilir
yamuk sayılar.
!!! bu en çok doğal yol belirsiz sınıflandırma
Tek modlu bulanık sayılara (L-R) tipi üçgen denir
sayılar.
Üçgen sayılar "yaklaşık olarak" gibi ifadeleri resmileştirir
α"ya eşittir. α+σ≈α olduğu açıktır ve σ sıfıra düştükçe derece
değerlendirmeye olan güven bire yükselir.

Bulanık çıktı
Bulanık mantık ve
nöral ağlar

Bulanık ve dilsel değişkenler. Bulanık sayılar


yY
X
Bulanıklaştırıcı
X
Bulanık blok
mantıklı
çıktı
Bulanık taban
tüzük
İLE
Durdurucu

Bulanık değişkenin tanımı


modeller
Sistemleri tanımlamaya yönelik mantıksal-dilbilimsel yöntemler şu gerçeğe dayanmaktadır:
incelenen sistemin davranışı doğal terimlerle tanımlanır
(veya doğala yakın) dilsel değişkenler açısından.
L1: Eğer ve/veya ... ve/veya O ve/veya... ve/veya
L2: Eğer ve/veya ... ve/veya O ve/veya... ve/veya
....................
Lk: Eğer ve/veya ... ve/veya O ve/veya... ve/veya
Bulanık ifadeler tip 1 ve 2

Örnek: bulanık değişken "uzun"

Sistemlerin mantıksal-dilsel açıklaması, bulanık
modeller
L1: eğer O
L2: eğer O


....................
Lk: eğer O

Bulanık ifadeler tip 3
Anlam kümesi (L1, L2, ..., Lk), işlevsel
girdi ve çıktı değişkenleri arasındaki ilişki temeldir
X x Y çarpımı üzerinde tanımlanan XRY bulanık ilişkisinin oluşturulması
evrensel girdi ve çıktı değişkenleri kümeleri.
R ilişkisi şu şekilde inşa edilir:
L.
Ben
Ben

Dilsel değişkenin tanımı


Dilsel Değişkenler
Basketbol oyuncusunun boyu

Çoklu terimler - (çok yüksek, yüksek, orta, düşük)
Basketbolcunun oyun tekniği

Birçok terim - (mükemmel, çok iyi, iyi, ortalama, kötü)
Takıma katılmanın güveni
Birçok tanım –
Birçok terim - (tam, orta, küçük, almayın)

Sistem “Basketbolcu alımı”
Basketbol oyuncusunun boyu
Birçok tanım –
Çok uzun
ortalama
yüksek
kısa

Örnek: LP “disiplin”

Sistem “Basketbolcu alımı”
Basketbolcunun oyun tekniği
Birçok tanım –
harika
Çok iyi
iyi
ortalama
kötü

Örnek: parça kalınlığı

Sistem “Basketbolcu alımı”
Takıma katılmanın güveni
Birçok tanım –
tam dolu
ortalama
küçük
biz bunu almıyoruz

Örnek: parça kalınlığı

“Basketbolcu Alımı” Sistemi - Kurallar
Dilsel değişkenleri girin
Çıkış LP'si
Çalma tekniği
Oyuncu yüksekliği
Seçimin güvenilirliği
Harika
Çok uzun
Tam dolu
Harika
Yüksek
Tam dolu
Harika
Çok uzun değil
Ortalama
Harika
Kısa
Ortalama
Çok güzel
Çok uzun
Tam dolu
Çok güzel
Yüksek
Tam dolu
Çok güzel
Çok uzun değil
Ortalama
Çok güzel
Kısa
Ortalama
İyi
Çok uzun
Tam dolu
İyi
Yüksek
Tam dolu
İyi
Çok uzun değil
Ortalama
İyi
Kısa
Küçük
Çok iyi değil
Çok uzun
Ortalama
Çok iyi değil
Yüksek
Ortalama
Çok iyi değil
Çok uzun değil
Küçük
Çok iyi değil
Kısa
Biz bunu almıyoruz
Kötü
Çok uzun
Küçük
Kötü
Yüksek
Küçük
Kötü
Çok uzun değil
Küçük

İlaç türleri

Bulanık çıkarım devreleri
Şema 1: Mamdani algoritması. İma
bir minimumla, toplama ise bir maksimumla modellenir.
Şema 2: Tsukamoto'nun algoritması. Orijinal
parseller - önceki algoritma gibi, ancak
üyelik fonksiyonlarının olduğu varsayılmaktadır
monoton.
Şema 3. Sugeno algoritması. Algoritma
çıkarım kurallarının sağ taraflarının olduğunu varsayar
doğrusal fonksiyonlar olarak sunulur.
Şema 4. Larsen'in algoritması. Larsen'in algoritmasında
bulanık çıkarım kullanılarak modellenmiştir
çarpma işlemleri.
Şema 5. Basitleştirilmiş bulanık çıkarım algoritması.
Bu durumda ilk kurallar şu şekilde verilmiştir:
Eğer X Аi ve Y ise Bi ise z=Zi olur; burada Zi net bir değerdir.

Bulanık sayılar

Mamdani algoritması
Bazı sistemlerin aşağıdaki şekilde tanımlanmasına izin verin
bulanık kurallar:
P1: eğer x A ise w, D'dir,
P2: y B ise w E'dir,
P3: z C ise w F'dir,
burada x, y, z giriş değişkenlerinin adlarıdır, w ise addır
çıkış değişkeni ve A, B, C, D, E, F verilmiştir
üyelik fonksiyonları (üçgen şekil).
Giriş değişkenlerinin alındığı varsayılmaktadır.
bazı spesifik (net) değerler – x0, y0, z0.
15

Bulanık sayılarla ilgili işlemler

Mamdani algoritması
Aşama 1. Verilen değerler için ve A, B üyelik fonksiyonlarına göre,
C önermesinin doğruluk dereceleri α(x0), α(y0), α(z0) bulunur
Verilen üç kuralın her biri.
Aşama 2. Sonuçların üyelik fonksiyonlarının “kesilmesi” meydana gelir
α(x0), α(y0), α(z0) seviyelerindeki kurallar (yani D, E, F).
Aşama 3. İkinci aşamada kesilen işlevler dikkate alınır
aksesuarlar ve kullanılarak birleştirilir
maksimum işlemler, birleşik bir bulanıklığa neden olur
üyelik fonksiyonu μ∑(w) tarafından tanımlanan alt küme ve
çıkış değişkeni w'nin çıkarımına karşılık gelir.
Aşama 4 (gerekirse). Çıkışın net değeri bulunur
değişken, örneğin centroid yöntemini kullanarak: clear
Çıkış değişkeninin değeri ağırlık merkezi olarak tanımlanır.
eğri μ∑(w):
w0
w
(w)dw
(w)dw
16

L-R bulanık sayılar

Mamdani algoritması
w0
w
(w)dw
(w)dw
17

L-R bulanık sayılar

Bunu açıklığa kavuşturmak
(skalarizasyon)

L-R bulanık sayılar

Bunu açıklığa kavuşturmak
(skalarizasyon)

Bulanık çıktı

Larsen'in algoritması

Bulanık (mantıksal-dilsel) modelleme

Kontrol sorunu
klima
Tüzük:

Kontrol sorunu
klima

Sistemlerin mantıksal-dilsel açıklaması, bulanık modeller

Kontrol sorunu
klima

Sistem “Basketbolcu alımı”

Tsukamoto'nun algoritması

Sujeno ve Thakazhi'nin algoritması

Bulanık çıkarım devreleri

Basitleştirilmiş seçim algoritması

Mamdani algoritması

Basitleştirilmiş seçim algoritması

Mamdani algoritması

İlginiz için teşekkür ederiz!
İyi şanlar!!!

Mamdani algoritması

Nöronlar ve sinir
ağlar
Bulanık mantık ve
nöral ağlar

Nöral ağlar…
- bölüm yapay zeka, V
sinyal işleme için hangisi
benzer fenomenler
Canlı nöronlarda meydana gelen
yaratıklar
Yaklaşım
Tahmin
Dernek yönetimi
Tanımlama ve değerlendirme
Sınıflandırma ve örüntü tanıma
86

Açıklama (skalarizasyon)

Görevler başarıyla
sinir ağları tarafından çözüldü
görsel tanıma,
işitsel görüntüler;
ilişkisel arama
bilgi ve yaratım
ilişkisel modeller; sentez
konuşmalar; formasyon
Doğal lisan;
modellerin oluşturulması ve
çeşitli doğrusal olmayan ve zor
matematiksel olarak tanımlanmış
sistemler, tahmin
bu sistemlerin geliştirilmesi
zaman:
Endüstriyel kullanım;
kalkınma tahmini
siklonlar ve diğer doğal
süreçler, tahmin
döviz kurlarındaki değişiklikler ve diğer
finansal süreçler;
kontrol sistemleri ve
ile düzenleme
tahmin; kontrol
robotlar, diğer karmaşık
cihazlar
çeşitli final
makineler: kütle sistemleri
Servis ve anahtarlama,
telekomünikasyon
sistemler;
karar verme ve
teşhis hariç
mantıksal çıkarım; özellikle
bulunmayan alanlar
açık matematiksel
modeller: tıpta,
kriminoloji, mali
küre.
87

Larsen'in algoritması

Bilgi alanları
88

Nörobilgisayar…
- yazılım ve donanım sistemi (onun
uzman olarak da adlandırılabilir
uygulayan bilgisayar) veya
biraz sağladığını söylüyorlar
doğallığın resmi modeli
sinir ağı.
Nörobilgisayar programlama
bir sıra belirtilerek gerçekleştirilmez
komutlar, ancak örnekler sunarak, örnekler
Sorunları istenilen alandan çözme
89

Klima kontrol sorunu

40'lar
50'li yıllar
60'lar
önkoşullar
70'ler
Beyin hakkında yeni bilgiler
Mikroelektroniğin gelişimi ve
CT => teknik taban
Kusur
mevcut IIS
teknik nedenlerden dolayı düşüş
uygulama ve geliştirme zorlukları
sembolik programlama
5000 uzman,
> 100 şirket
Hopfield Yayını:
Hebb modeli ~ sınıfı
fiziksel sistemler
3)
1)
2)
Rosenblat ve Windrow
için bir algılayıcı cihazı yarattı
desen tanıma
hücresel kavram
Hebb toplulukları (Kanada)
IIS'yi geliştirmeye yönelik ilk girişimler
sinir hücrelerine dayalı
İlgi düzeyi
Nörobilgisayarın tarihi
80'ler
Uluslararası
konulu konferans
sinir ağları (Sinir
Bilgi işlem
Sistemler vb.),
uzmanlaşmış
dergiler (Nöral
Ağlar,
NöroBilgisayarlar vb.)
1996
seri üretim ve işletme
sinir ağına dayalı
uygulama sistemleri teknolojisi
90'lar
XXI. yüzyıl
90

Beyin hakkında bazı bilgiler
En zoru bilinen sistemler bilgi işlem.
Yaklaşık 100 milyar içerir.
nöronlar; bunların her biri
ortalama 100 bin bağlantı.
Güvenilir: kaybolduğunda çalışır
nöronların (ölmesi)
Büyük hacimlerin işlenmesi
paylaşımlar için bilgilendirme yapılır
saniyeler olmasına rağmen
çeşitli nöron reaksiyonları
milisaniye
Bireysel nöronların yapısı ve işlevleri iyi incelenmiştir.
İç ve dış organizasyona ilişkin bazı veriler mevcuttur.
Bazı yapısal nöronlar arasındaki bağlantılar
beyin oluşumları
Katılım hakkında çok az şey biliniyor çeşitli yapılar süreçlerde
bilgi işlem.
91

Biyolojik nöron
92

Sinir dürtüsü
- dağıtım süreci
akson boyunca vücuttan uyarılma
hücreler (akson tepeciği)
akson sonları.
- temel bilgi birimi,
fiber üzerinden iletilir.
...patlamalar halinde iletiliyor
Hücre içi ortamın potansiyeli
dış çevreyle ilgili olarak,
Hücreyi hızla çevreleyen
1 ila 100 m/sn.
Refrakterlik - sinir hücresinin uyarılabilirliğinin olmaması
Önceki heyecandan sonra.
Refrakter süresi – minimum zaman aralığı
arasında sinir uyarıları(10-4..10-3 sn)
93

Tsukamoto'nun algoritması

Zar
Sağlar
uygulamak
gergin
tarafından dürtüler
lif
Kalınlık
membranlar
yaklaşık 10 nm
Hücre uyarımının ölçüsü = polarizasyon düzeyi
toplamına bağlı olarak zarı
nörotransmitter miktarı (kimyasal
maddesi) tüm sinapslarda salgılanır.
94

Nöron benzeri eleman (NPE)
veya resmi nöron
Fiziksel bir nöronun modeli.
NPE ağırlıklı bir toplayıcıdan oluşur ve
doğrusal olmayan eleman. Operasyon
formüllerle belirlenir:
Ve
burada xi giriş sinyalleridir, xi kümesi X vektörünü oluşturur;
wi ağırlık katsayılarıdır, wi kümesi W ağırlıklarının bir vektörünü oluşturur;
NET - giriş sinyallerinin ağırlıklı toplamı, NET değeri iletilir
doğrusal olmayan eleman;
Θ - belirli bir nöronun eşik seviyesi;
F- doğrusal olmayan fonksiyon aktivasyon fonksiyonu denir.
NPE'nin birkaç giriş sinyali x ve bir çıkış sinyali OUT vardır.
NPE parametreleri: W ağırlıklarının vektörü, eşik seviyesi Θ ve fonksiyon türü
aktivasyon F.
95

Sujeno ve Thakazhi'nin algoritması

NPE'nin çalışma prensibi
1. NPE, aşağıdakileri temsil eden X giriş vektörünü alır:
diğer NPE'lerin çıkış sinyallerini temsil eder.
Bu giriş sinyali, sisteme giren sinyallere karşılık gelir.
biyolojik nöronların sinapsları
2. Her giriş sinyali karşılık gelen değerle çarpılır.
w1, w2, ... wn ağırlığı sinyal verimliliğinin bir analogudur.
Ağırlık: skaler miktar için olumlu
uyarıcı bağlantılar için uyarıcı ve negatif.
3. Bağlantı ölçekleriyle ağırlıklandırılan giriş sinyalleri,
hücre gövdesine karşılık gelen bir toplama bloğu;
bunların cebirsel toplamı yapılır ve
NPE'nin uyarılma seviyesi belirlenir.
4. Y nöronunun çıkış sinyali şu şekilde belirlenir:
uyarılma seviyesini aktivasyon fonksiyonundan geçirmek.
96

Basitleştirilmiş seçim algoritması

Fonksiyon türleri
aktivasyon F

Basitleştirilmiş seçim algoritması

Sert adım ve
Zor
adım adım
düz
Düz adım
+ basit;
+ uygulama düşük maliyetler gerektirir;
-devreleri simüle etmenize izin vermez
sürekli sinyallerle;
- sinir ağlarının eğitimi zordur.
+ hesaplanması kolay;
+ öğrenme zordur.
98

Hiperbolik tanjant
Lojistik fonksiyon
ve Fermi fonksiyonu
(Fermi fonksiyonu)
Hiperbolik tanjant
* ile ağlar için geçerlidir
sürekli sinyaller;
+ kolay eğitim.
* için başvurulur
çok katmanlı algılayıcılar;
+ geniş sinyal aralığı;
+ kolay eğitim.
99

Nöronlar ve sinir ağları

Özel Özellikler aktivasyon
Katılımcı
SOFTMAX işlevi (olasılık çıktıları)
Doğrusal fonksiyon (gerekli değil)
katmanların seri bağlantısı
Gauss eğrisi (NPE yanıtı
için maksimum olmalı
bir miktar değer)
100

Nöral ağlar…

Bir etkinleştirme fonksiyonunun seçilmesi
azimli...
1. Görevin özgüllüğü.
2. formda bilgisayarda uygulama kolaylığı
elektrik şeması veya başka araçlar.
3. öğrenme algoritması: bazı
algoritmalar kısıtlamalar getirir
aktivasyon fonksiyonunun türü, bunlara ihtiyaç var
dikkate almak.
Çoğu zaman, doğrusal olmama türünün temel bir etkisi yoktur.
problemin çözümüne etkisi. Fakat iyi seçim Belki
eğitim süresini birkaç kat azaltın
101

Sinir ağları tarafından başarıyla çözülen sorunlar

Nöron modelinin sınırlamaları
Nöron Çıkış Hesaplamaları
varsayılıyor
tanıtmadan anında
gecikmeler.
Modele dahil değil
sinir uyarıları.
Seviye modülasyonu yok
sinyal yoğunluğu
sinirlerde olduğu gibi dürtüler
sistem.
Efektler görünmüyor
senkronizasyon ne zaman
nöron kümeleri
işlem bilgisi
eş zamanlı olarak kontrol altında
periyodik dalgalar
uyarılma-inhibisyon.
için net bir algoritma yoktur.
aktivasyon fonksiyonunun seçimi.
Düzenleyecek mekanizmalar yok
ağın bir bütün olarak işleyişi (örneğin hormonal düzenleme)
biyolojik aktivite
sinir ağları).
Aşırı resmileştirme
kavramlar: "eşik", "ağırlık"
katsayılar".
Desteklenmiyor
çeşitli sinapslar.
Engelleyici ve uyarıcı
sinapslar burada gerçekleşir
ağırlık şeklinde modeller
katsayılar
zıt işaret ama bu
her tür değil.
Modelde görünmüyor
kademeli arasındaki fark
potansiyeller ve sinir
dürtüler.
102

Bilgi alanları

Nöro benzeri ağ
- bir dizi nöron benzeri öğe,
belli bir şekilde bağlı
bir arkadaşla ve dış çevreyle.
Giriş vektörü (giriş uyarıcısını veya görüntüsünü kodlayan
harici ortam) girişi etkinleştirerek ağa sağlanır
nöron benzeri elementler
Sinir ağı çıkış sinyalleri kümesi y1, y2,..., yn
çıktı etkinliği vektörü veya modeli olarak adlandırılır
sinir ağı etkinliği.
103

Nörobilgisayar...

Mimari Özellikler
nöral ağlar
nöronlar arası bağlantıların topolojisi;
NPE'lerin belirli bir alt kümesinin seçilmesi
bilgi girişi ve çıkışı;
rekabetin varlığı veya yokluğu;
kontrol yönü ve yöntemi ve
arasındaki bilgi akışının senkronizasyonu
nöronlar
neden özel tip gerçekleştirillen
bilgi dönüşüm ağı
104

Nörobilgisayarın tarihi

Yapay sinir
ağlar
105

Beyin hakkında bazı bilgiler

En önemli özellikler
biyolojik sinir ağları
Tam işlem yeteneği
bilgi: çağrışımsallık
(ağ geri yükleyebilir
kendi kısmının tam görüntüsü),
sınıflandırma yeteneği,
genelleme, soyutlama ve
diğerleri.
Güvenilirlik. Biyolojik NS
fantastik var
güvenilirlik: başarısızlık
hatta sinirdeki nöronların %10'u
sistem bunu kesintiye uğratmıyor
iş. Karşılaştırıldığında
seri bilgisayarlar,
ilkelere dayalı arka plan
Bir hücrenin başarısız olduğu Neumann
bellek veya bir düğüm
ekipman çöküyor
sistemler.
Paralel işleme
bilgi.
Kendi kendine organizasyon. Devam etmekte
biyolojik çalışmalar NS
bağımsız olarak, altında
dış etki
çevre, çözmeyi öğren
çeşitli görevler.
Bilinmiyor
temel kısıtlamalar
görevlerin karmaşıklığı hakkında,
biyolojik olarak çözüldü
nöral ağlar. Gergin
sistemin kendisi oluşur
onun algoritmaları
faaliyetleri açıklığa kavuşturmak ve
onları yaşam boyunca karmaşık hale getirir.
Biyolojik NS'ler
analog sistemler
106

Biyolojik nöron

Yaratılışa yaklaşımlar
nöral ağlar
Bilgi yaklaşımı: ne olduğu önemli değil
Yapay işleyişin altında yatan mekanizmalar
sinir ağları, yalnızca çözerken önemlidir
görevler bilgi süreçleri Millet Meclisi'ndeydi
biyolojik olanlara benzer.
Biyolojik yaklaşım: modelleme yaparken önemlidir
tam biyobenzerlik vardır ve ayrıntılar gereklidir
Biyolojik bir nöronun işleyişini incelemek.
Biyolojik araştırmalarda önemli çalışmalar
sinir ağları Andrew Huxley, Alan'a aittir
Hodgkin, Bernard Katz, John Eccles, Stephen
Kuffler ve ark.
108

Sinir dürtüsü

Araştırma Yöntemleri
sinir benzeri ağlar
Yöntem
Özellikler
analitik
çalışmak
- çok sayıda NPE'den kaynaklanan karmaşıklık
+ ilginç analitik sonuçlar kabul edilmiş
birçok sinir ağı modeli için
matematiksel
(taklit
modelleme)
+ hemen hemen her şeyi oluşturmayı mümkün kılar
modeller
- işlerinin sıralı yapısından dolayı
sınırlı modelleri keşfetmeyi başarıyor
boyut
fiziksel
modelleme
+ hızlı bir şekilde güvenilir olmanızı sağlar
modeli sonuçları
- donanım uygulamasının teknik karmaşıklığı
çok sayıda NPE ile çok sayıda
uyarlanabilir bağlantılar
109

Zar

Model kategorileri
nöral ağlar
tek nöron modelleri;
küçük nöron gruplarının modelleri;
sinir ağı modelleri;
modeller zihinsel aktivite Ve
bir bütün olarak beyin.
110

Nöron benzeri eleman (NLE) veya resmi nöron

Sinirsel öğrenme türleri
ağlar
111

NPE'nin çalışma prensibi

Öğrenme algoritmaları
Öğretmenle
Öğretmen olmadan
Verilen
vektör X,
beklenen çıkış sinyalleri
nöron dj ∈ D
vektör X
Seçim
değerler
gerçek çıkış sinyalleri
nöron kabul etmeli
değerleri olabildiğince
beklenene yakın
ağ en iyiyi sunmayı öğrenir
çıkış değerleri. Ne
"en iyi" ile kastedilmektedir
- algoritma tarafından belirlenir
eğitim.
Yeni
değerler
..yeteneği nedeniyle
uygulanırsa ağ tarafından genelleme
girdi olmayan bir vektördür
eğitim sırasında tanıştık.
Her zaman
112

Aktivasyon fonksiyonlarının türleri F

KOBİ eğitim yöntemleri
Ters algoritma
hata yayılımı
klasik
Gradyan
Gradyan tespiti
amaç fonksiyonu
Değişken Metrik Algoritma
Sezgisel yöntemler
Kişisel deneyime dayalı
eğitim alanında yazar
nöral ağlar
En dik iniş algoritması
Gradyan konjugasyon algoritması
Levenberg-Marquardt algoritması
113

Sert adım ve düz adım

McCulloch-Pitts modeli
Çıkış sinyali:
Eşik fonksiyonu:
Yapı ayrık model kırılmanın tezahürü ile haklı
biyolojik nöronlarda, nöronun yapabileceği gerçeğine yol açar
durumunu sonlu bir frekansla değiştirir ve süresi
hareketsizlik süreleri, çalışma sıklığına bağlıdır.
114

Hiperbolik tanjant ve Fermi fonksiyonu

Mantıksal işlemler

Özel aktivasyon fonksiyonları

Perceptron eğitim algoritması
McCulloch-Pitts

Bir etkinleştirme fonksiyonunun seçilmesi

Sinir sınıflandırması
ağlar
Tek yönlü
Tekrarlayan
(geribildirim ile)
Nöronları birleştirme yöntemi
Sinir ağı
Nöron katmanlarının sayısı
Tek katman
Çok katmanlı
118

Nöron modelinin sınırlamaları

Basit Algılayıcı
ikili giriş matrisi
(duyu nöronları veya
"retina") r1, r2, ... rn, burada
giriş görüntüleri sağlanır;
nöron benzeri set
elemanlar x1, x2, ... xm, s
sabit bağlantılar
retina altkümeleri
(“özellik algılayıcıları”);
"belirleyici unsur" - değiştirilebilir bir ikili NPE
"dedektörler" ile bağlantılar. Tipik olarak belirleyici unsurların sayısı
sınıf sayısına eşit olarak seçilir
algılayıcıya sunulan görüntüleri bölmek gerekir.
119

Nöro benzeri ağ

Rosenblatt Perceptron
Basit
kime
koşullar:
algılayıcı, için
adil
n=m ve xi = ri,
en
Bu
dedektörler
işaretler
olabilmek
girdi olarak değerlendirildi
katman.
Rosenblatt'ın algılayıcısında eğitilebilir ağırlıklardan oluşan bir katman vardı.
girişleri d = 512 ile sinyal alan
nöronları rastgele sabit nöronlarla ilişkilendirmek
400 piksellik görüntüler için bir özellik alanı oluşturan ağırlıklar
120

Sinir ağı mimarisinin özellikleri

Öğrenme algoritması
Rosenblatt algılayıcısı
Rosenblatt algılayıcı yakınsama prosedürü
1. Wi ağırlıklarının vektörü keyfi olarak ayarlanmıştır.
durum.
2. Eğitim görüntüsündeki görüntüler dönüşümlü olarak retinaya beslenir
çıkış sinyali y'ye dönüştürülen örnekler
belirleyici unsur.
3.Cevap doğruysa hiçbir şey değişmez.
4.Cevap yanlış y=0 ise tüm bağlantıların ağırlıkları
retinanın aktif elemanları artar ve
yanlış yanıt y=1 – miktara göre azaltın.
Çözüm varsa ona da ulaşılır
sonlu sayıda adım ilk seçim bağlantılar.
121

Yapay sinir ağları

Algılayıcı özellikleri
Giriş sinyallerinin türü: ikili veya analog (gerçek).
Yazılım uygulamasında giriş ve çıkış boyutları sınırlıdır
yalnızca bilgisayar sisteminin yetenekleriyle
simüle edilmiş sinir ağı donanım uygulaması ve teknolojik yeteneklere sahip.
Ağ kapasitesi nöron sayısıyla örtüşür.
Değişiklikler. Çok katmanlı algılayıcılar inşa etmeyi mümkün kılar
daha karmaşık bölme yüzeylerine sahiptir ve bu nedenle daha fazla
Tanıma problemlerinin çözümünde yaygın olarak kullanılır.
Avantajlar. Modelin yazılım veya donanım uygulamaları oldukça
basit. Basit ve hızlı algoritma eğitim.
Kusurlar. İlkel bölme yüzeyleri (hiper düzlemler)
yalnızca en çok karar verme fırsatı verin basit görevler tanıma
Kullanım alanları. Örüntü tanıma, sınıflandırma.

Biyolojik sinir ağlarının en önemli özellikleri

Çok katmanlı algılayıcı
doğrudan dağıtım ağı
Duyusal
(giriş)
katman
İzin günü
(sonuç) katmanı
Gizli (ilişkisel) katmanlar
Nöronlar arasındaki iletişimin ilkesi “her biri birbiriyle”dir.
Katmanlardaki nöron sayısı isteğe bağlı olabilir.
Tipik olarak tüm gizli katmanlar aynı sayıda nörona sahiptir.
Giriş katmanı yalnızca sinyalleri dağıtır.
123

Biyolojik sinir ağları ile von Neumann mimarisine dayanan bilgisayarlar arasındaki farklar

sınıflandırma

Sinir ağları oluşturmaya yönelik yaklaşımlar

Regresyon (yaklaştırma)

Sinir benzeri ağları inceleme yöntemleri

Sorunları çözmek için algoritma
KOBİ'lerin desteğiyle
1.
2.
3.
4.
Anlamın ne olduğunu belirleyin
bileşenlere yatırım yapıldı
giriş vektörü x. Giriş
vektör içermelidir
resmileştirilmiş koşul
görevler, yani tüm bilgiler
almak için gerekli
cevap.
Çıkış vektörü y'yi seçin
öyle bir şekilde ki
eksiksiz olarak içerilen bileşenler
görevin cevabı.
Doğrusal olmama türünü seçin
nöronlar (aktivasyon fonksiyonu).
Değişiklik aralığını ayarla
girdiler, çıktılar, ölçekler ve
eşik seviyeleri dikkate alınarak
seçilenlerin değer kümesi
5. Başlangıç ​​değerlerini atayın
ağırlık katsayıları ve
eşik seviyeleri ve
ek parametreler
(örneğin, fonksiyonun eğimi
varsa aktivasyon
eğitim sırasında ayarlayın).
6. Eğitimi yürütün, yani.
ağ parametrelerini seçin, böylece
böylece sorun çözüldü
en iyi yol. İle
Eğitimi tamamladıktan sonra ağ hazır
bu tür problemleri çözmek
o eğitildi.
7. Ağ girişine koşulları uygulayın
x vektörü olarak problem.
Çıkış vektörü y'yi hesaplayın,
resmileştirilmiş bir bilgi verecek
sorunun çözümü.
aktivasyon fonksiyonları.
126

Sinir ağı modellerinin kategorileri

Ters algoritma
hata yayılımı
Hatanın geriye yayılması
Yöntemin temeli amaç fonksiyonu olarak formüle edilmiştir
gerçek ve gerçek arasındaki farkların ikinci dereceden toplamı
çıkış sinyallerinin beklenen değerleri.
Tek tek olması durumunda
örnekler (x,d) amaç fonksiyonu
olarak tanımlanır:
Şu tarihte: Büyük miktarlar eğitim örnekleri j (j = 1,2,.. p) hedefi
fonksiyon tüm örneklerin toplamına dönüşür:
127

Sinir ağı eğitimi türleri

Algoritma yürütme aşamaları
geri yayılım hatalar
1. Sinir analizi
ağlar canlı
yön
bilgi aktarımı
üretirken
giriş sinyalleri,
bileşenler
başka bir X vektörü.
2. Bir ağ oluşturun
tersi
dağıtım
hatalar
3. Ölçeklerin açıklığa kavuşturulması
4. Paragraf 1, 2'de açıklanmıştır
ve 3 süreç takip ediyor
herkes için tekrarla
eğitim örnekleri.
.
1. hafta sonuna kadar değerler hesaplanır
gizli katman nöron sinyalleri ve çıkışı
katmanın yanı sıra karşılık gelen türevler
Her katmanın aktivasyon fonksiyonları.
2. İletim yönlerini değiştirerek
aktivasyon fonksiyonlarını değiştiren sinyaller
türevler ve önceki çıktıya besleme
arasındaki fark şeklinde uyarılma
Gerçek ve beklenen değer. İçin
bu şekilde tanımlanan ağ,
gerekli tersin değerlerini hesaplayın
farklılıklar.
3. Sonuçlara dayalı formüller kullanmak,
Orijinal ağ için 1. ve 2. paragraflarda elde edilen ve
geri yayılım ağı için
K 4. Algoritma şu anda bitiyor
gradyan normu a priori'nin altına düştüğünde
Eğitim doğruluğunun verilen değeri e.
128

Öğrenme algoritmaları

Sinir ağını yeniden eğitmek
Fonksiyon öğretmeni,
üretken
eğitici
örnekler, N<∞
sen
Sıfırdan sinir ağı
öğrenme hatası
Sorun: yeterli değil
bilgi
tek olanı seç
doğru çözüm:
öğretmen işlevi.
rastgele seçilen bir fonksiyon şunu verir
yeni örnekler kullanarak kötü tahminler,
eğitim setinde eksik olmasına rağmen
Son ağ hatasız olarak çoğaltıldı.
Bilinen örneklerden genelleme yapmak yerine
ağ onları hatırladı
130

KOBİ eğitim yöntemleri

Çok katmanlı algılayıcı
sabit nöronlar
büyük).
terazi
Veri ayırma
eğitim amaçlı ve
doğrulama
birçok örnek
çeşitliliği azalt
olası konfigürasyonlar
eğitimli sinir ağları
minimum kayıpla
onlara yaklaşmak
yetenekleri
137

Rosenblatt Perceptron

Hopfield ağı
hafta sonu
sinyaller
nöronlar
aynı anda giriliyor
sinyaller
ağlar,
en
Bu
heyecan verici vektör özellikle değil
öne çıkıyor.
nöron arasında hiçbir bağlantı yoktur.
kendi çıkışı
İ'inci nöronun çıkış sinyali:
burada bi eşik değeridir,
harici bir kaynak tarafından belirtilen,
N – nöron sayısı.
138

Rosenblatt algılayıcı eğitim algoritması

Kullanarak sorunları çözme
Hopfield ağları
1. Enerji fonksiyonunu, noktanın
bu fonksiyonun global minimumu çözümle çakıştı
görevler. Bu durumda enerji fonksiyonunun gradyanı şu şekilde olmalıdır:
NN kullanarak hesaplamaya izin verin.
2. Ağ parametrelerini hesaplamak için formüller yazın (ağırlık
hesaplamak için katsayılar ve eşik seviyeleri)
Enerji fonksiyonunun gradyanı.
3. Geri bildirim zincirini kırın ve ağa sunum yapın
giriş vektörü. Çıkış değerlerini hesaplayın.
4. Döngüyü kapatın ve ağı güçlendirin
durumunuzu bağımsız olarak değiştirin (gevşeme).
Bir günlük izinden sonra gevşeme sürecini durdurun
vektör değişmeyi bırakacaktır; minimum seviyeye ulaşıldığında
enerji fonksiyonları. Ortaya çıkan ağ çıktıları çözümü verir
görevler.
139

Algılayıcı özellikleri

Modernin özellikleri
nöral ağlar
Öğrenme yeteneği. NN modellerinden birini seçerek bir ağ oluşturun ve
Öğrenme algoritmasını çalıştırarak ağı eğitebiliriz
baş edebileceği bir sorunu çözmek. hayır
bunun seçilen ağ ile yapılabileceğini garanti eder,
algoritma ve görev, ancak her şey doğru yapılırsa, o zaman
eğitim başarılı.
Genelleme yeteneği. Ağı eğittikten sonra
küçük değişikliklere karşı duyarsız hale gelir
giriş sinyalleri (gürültü veya giriş modellerindeki değişiklikler)
ve doğru çıktıyı verir.
Soyutlama yeteneği. Ağı sunarsanız
giriş görüntüsünün çeşitli bozuk varyantları, ardından ağ
sonunda ideal imajı kendisi yaratabilir.
hiç tanışmadığı kişi.
142

Çok katmanlı algılayıcı

Uzman ve NS arasındaki fark
Bilginin doğası gereği sistemler
Uzman sistemler (ES)
Kaynak Resmileştirilmiş deneyim
bilgi
olarak ifade edilen uzman
kuralların ve gerçeklerin mantıksal ifadeleri, kesinlikle
sistem tarafından alınan
Karakter Biçimsel-mantıksal
bilgi
“sol yarıküre” bilgisi
kural biçimi
Gelişme Genişleme şeklinde
bilgi
kurallar ve gerçekler dizisi
(bilgi tabanı)
Sinir ağı sistemleri (NN)
Uzman bir öğretmenin birleşik deneyimi,
eğitim için örneklerin seçilmesi +
bunlar üzerinde çalışan bir öğrencinin bireysel deneyimi
sinir ağı örnekleri
İlişkisel “sağ yarıküre” bilgisi
ağdaki nöronlar arasındaki bağlantı şekli
Ek eğitim şeklinde
açıklamalı örnekler dizisi
Kategorilerin sınırları ve yenilerinin oluşumu
kategoriler
Rol
Tipik örnekleri temel alarak tam kuralları tanımlar,
uzman bilgi hacmi uzmanı
özel olarak gerekçenizi formüle etmek
sistemler
seçenek
Rol
Bir gerçekler ve kurallar zincirini arayın Bireysel deneyimin oluşumu
art.syst. bir önermeyi kanıtlamak
esas alınarak elde edilen kategorilerin şekli
görsellerin örnekleri ve sınıflandırılması

Dahil etme. A ve B, E evrensel kümesi üzerinde bulanık kümeler olsun. "x ОE m A (x) > m B (x) ise A'nın B'de kapsandığı söylenir. Gösterim: A М B.

Eşitlik. "xÎE m A (x) = m B (x) ise A ve B eşittir. Gösterim: A = B.

Ek. M = , A ve B, E üzerinde tanımlanan bulanık kümeler olsun. A ve B birbirini tamamlıyorsa
"xÎE m A (x) = 1 – m B (x). Gösterim: B = veya A = . (Tümleyen M = için tanımlanmıştır, ancak elbette herhangi bir sıralı M için de tanımlanabilir) .

Kavşak. A Ç B – A ve B'de aynı anda bulunan en büyük bulanık alt küme;

M A Ç B(X) = min(m A ( X), m B ( X)}.

Union.A È B - üyelik fonksiyonuna sahip, hem A hem de B'yi içeren en küçük bulanık alt küme

M A ve B(X) = maksimum ((m Bir ( X), m B ( X)}.

Fark. A \ B= A Ç üyelik fonksiyonlu:

m A\B ( X) = dk ( m A ( X), 1 – mB ( X)}.

Örneğin.

Diyelim ki: A = 0,4/ x 1 È 0,2/ x 2 È 0/ x 3 È 1/ x 4 ;


1. A М B, yani. A, B'nin içindedir, C ne A ne de B ile karşılaştırılamaz.

2. A¹B¹C .

3. = 0,6/ x 1 È 0,8/ x 2 È 1/ x 3 È 0/ x 4 ;
= 0,3/ x 1 È 0,1/ x 2 È 0,9/ x 3 È 0/ x 4 .

Bulanık kümeler için görsel bir temsil oluşturabilirsiniz. Ordinat ekseninde değerleri m A ( olan dikdörtgen bir koordinat sistemi düşünelim. X), E elemanları x ekseni üzerinde keyfi bir sırayla konumlandırılır (bu temsili bulanık küme örneklerinde zaten kullandık). E doğası gereği sıralanmışsa, bu sıranın x ekseni üzerindeki elemanların düzenlenmesinde korunması arzu edilir. Bu gösterim, bulanık kümeler üzerindeki basit işlemleri netleştirir.

Pirinç. 1. Şek. 2

Pirinç. 3. Şek. 4.

İncirde. Şekil 1'de, karanlık kısım A bulanık kümesine karşılık gelir ve daha kesin olmak gerekirse, A'nın değer aralığını ve A'da bulunan tüm bulanık kümeleri gösterir. 2 – 4 sırasıyla A Ç, AÈ olarak verilmektedir.

È ve Ç operasyonlarının özellikleri.

A, B, C bulanık kümeler olsun, o zaman aşağıdaki ilişkiler geçerlidir:

A) – değişme özelliği;

B) – ilişkisellik;

c) – iktidarsızlık;

G) - DAĞILMA;

e) AÈÆ = A, nerede Æ – boş bir küme, yani mÆ(x) = 0"xÎE;

AÇE = A, burada E evrensel kümedir;

e) - De Morgan'ın teoremi.

Kesin kümelerin aksine, genel durumdaki bulanık kümeler için AÇ Æ, AÈ ¹ E, ki bu özellikle yukarıda bulanık kümelerin görsel temsili örneğinde gösterilmiştir.

Bulanık kümelerde cebirsel işlemler

A ve B'nin cebirsel çarpımı A×B ile gösterilir ve aşağıdaki gibi tanımlanır:

"xÎE m A × B ( X) = m Bir ( X)m B ( X).

Bu kümelerin cebirsel toplamı A + B ile gösterilir ve şu şekilde tanımlanır:

"xÎE m A+B ( X) = m Bir ( X) + m B ( X)-m Bir ( X)m B ( X).

(×, +) işlemleri için aşağıdaki özellikler sağlanır:

· – değişebilirlik;

· – ilişkisellik;

· A×Æ = Æ, A+Æ = A, A×E = A, A+E = E ;

· – De Morgan yasaları.

Yerine getirilmemiş:

· – iktidarsızlık;

· - DAĞILMA;

· ve ayrıca A× = Æ, A+ = E.

De Morgan'ın birinci yasasını kanıtlayalım. m A(x)'i a ile, m B(x)'i b ile gösterelim. Daha sonra eşitliğin sol tarafında her x elemanı için elimizde: 1– ab ve sağda cebirsel toplama formülüne göre: (1– a) + (1– b) – (1 – a) (1 – b) = 1 – ab .

Birinci dağılabilirlik özelliğinin sağlanmadığını kanıtlayalım; A×(B + C) ¹ (A×B) + (A×C). Sol taraf için elimizde: a(b+c) bc) = ab + ac – abc; sağ için: ab + ac – (ab)(ac) = ab + ac + a 2 bc. Bu, dağıtıcılığın a¹a ​​2 için geçerli olmadığı anlamına gelir.

Yorum.(È, Ç,+,×) işlemleri birlikte kullanıldığında aşağıdaki özellikler sağlanır:

· A×(B È C) = (A×B) È (A × C);

· A× (B Ç C) = (A×B) Ç (A×C);

· A+(B È C) = (A+B) È (A+C);

· A+ (B Ç C) = (A+B) Ç (A+C).

Bulanık kümelerin kartezyen çarpımı. A 1, A 2, ..., An, sırasıyla E 1, E 2, ..., E n evrensel kümelerinin bulanık alt kümeleri olsun. Kartezyen çarpım A = A 1 `A 2 ` ...'A n, E kümesinin bulanık bir alt kümesidir = E 1'E 2' ... 'E n üyelik fonksiyonu ile:

m bir ( X 1 ,X 1 , ...,X n) = dk( m A1 ( X 1), m A2 ( X 2) , ... , m Ai ( X N) ).

Genelleme ilkesi

Bulanık kümeler teorisinin ana fikirlerinden biri olan genelleme ilkesi doğası gereği buluşsaldır ve bulanık kümelerin eşlemelere uygulama kapsamını genişletmek için kullanılır. Her bir xÎX elemanına m f(x,y) üyelik derecesine sahip bir yÎY elemanını atarsa, X kümesi üzerinde tanımlı ve Y kümesinde bir değere sahip bir bulanık fonksiyon f olduğunu söyleyeceğiz. Bir bulanık fonksiyon f, bulanık bir eşleme f'yi tanımlar : XY.

Genelleme ilkesi, belirli bir net f için: X®Y veya bulanık f'dir. : X üzerinde tanımlanan herhangi bir A bulanık kümesi için X Y eşlemesi, Y üzerinde A'nın görüntüsü olan bir bulanık küme f(A) belirlenir.

f: X®Y belirli bir kesin eşleme olsun ve A = (m A(x)/x) X'te bir bulanık küme olsun. Bu durumda A'nın f eşlemesi altındaki görüntüsü Y üzerinde bir bulanık küme f(A) olur üyelik fonksiyonu ile:

mf(A)(y) = ; evet,

burada f –1 (y)=(x | f(x) = y).

Bulanık haritalama durumunda f : X Y, herhangi bir xОX ve yОY için iki basamaklı üyelik fonksiyonu m f(x, y) tanımlandığında, X üzerinde tanımlanan A bulanık kümesinin görüntüsü, f( bulanık kümesidir) A) Açık eüyelik fonksiyonu ile m f (A) (y) = ( min(m A (x), m f (x, y) ).

TEST SORULARI VE GÖREVLERİ

1. Let: A = 0,4/ x 1 È 0,2/ x 2 È 0/ x 3 È 1/ x 4 ;

B = 0,7/ x 1 È 0,9/ x 2 È 0,1/ x 3 È1/ x 4 ;
C = 0,1/ x 1 È 1/ x 2 È 0,2/ x 3 È 0,9/ x 4 .

Kümeleri oluşturun: a) AÇB;

taksi; B\A.

2. E = (Zaporozhets, Zhiguli, Mercedes, Ferrari) evrensel kümesi için, doğrudan bir yöntem kullanarak bulanık kümeler oluşturun: a) “yüksek hız”;

b) “ortalama”;

c) “düşük hız”.

3. E = (1, 2, 3, ..., 100) olsun ve “yaş” kavramına karşılık gelsin. Bulanık kümeler oluşturmak için doğrudan yöntemi kullanma

a) “yaşlı”;

b) “evlenme zamanı geldi”;

c) “askere alınmak”,

ve karşılık gelen üyelik fonksiyonları için yaklaşık bir formül oluşturun.

4. Görev 2'nin koşulları altında, E elemanlarının ikili karşılaştırmalarına dayanan dolaylı bir yöntemle a) – c) bulanık kümelerini oluşturun.


2. BÖLÜM İKİLİ İLİŞKİLER

VE SEÇİM FONKSİYONU

3) bir fonksiyonun grafiğinde bundan başka herhangi bir nokta c иx 0,5, örneğin taşıyıcının (x 0,01) veya çekirdeğin (x 0,99) yaklaşık sınırı - b parametresinin değeri sonuçlardan hesaplanır.

3.Bulanık kümeler üzerinde işlemler

Bulanık kümelerde iki grup işlem vardır:

1) küme-teorik operasyonlar klasik küme teorisinin işlemlerinin bulanık kümeler durumuna genelleştirilmesini temsil eden;

2) çokluğun bulanıklığını önemli ölçüde dikkate alan işlemler

Sıradan kümeler için bir anlam ifade etmeyen özellikler.

Genel olarak, bulanık kümeler üzerindeki küme-teorik işlemler, kesin kümelere uygulandığında sıradan, klasik küme-teorik işlemlerle örtüşecek şekilde tanımlanır.

Birinci gruptaki işlemlerden toplama işlemlerini ele alıyoruz,

kesişimler, birleşimler ve Kartezyen ürünler , ikinci grubun operasyonlarından - operasyonüs alma.

3.1. Ek

A, μ A üyelik fonksiyonuna sahip bir X kümesi üzerinde bulanık bir küme olsun. A'nın tümleyeni, üyelik fonksiyonuna sahip bir A bulanık kümesidir.

(x )= 1− μ A (x ),x X

Tümleyen operatörü tipik olarak "DEĞİL" mantıksal değiştiricisini temsil etmek için kullanılır.

Bulanık toplama işleminin gerçekleştirilmesine bir örnek Şekil 2'de gösterilmektedir. Şekil 3.1'den, tanım alanının hem kümenin kendisine hem de tümleyenine ait olan öğelerinin olduğu, ancak bu öğelerin 1'e eşit bir üyelik derecesiyle bu kümelerin hiçbirine tamamen ait olmadığı açıktır. Başka bir deyişle, klasik mantıktan iyi bilinen ve tam olarak kavram ile onun olumsuzlanması arasındaki sınırların belirsiz olmasından kaynaklanan çelişkisizlik ilkesini ve ortanın dışlanması yasasını bulanık mantıkta işlemezler.

Bulanık küme teorisinin temel kavramları

Pirinç. 3.1. Bulanık toplama işlemi gerçekleştirmeye bir örnek

3.2. Kavşak ve Birlik

Bulanık kümelerin kesişim ve birleşim işlemlerini tanımlamaya yönelik en yaygın yaklaşımlardan birini, bazen minimaks yaklaşımı olarak da adlandırılan birini ele alalım.

A ve B, X kümesi üzerinde sırasıyla μ A ve μ B üyelik fonksiyonlarına sahip bulanık kümeler olsun. Bu durumda, bu kümelerin A ∩ B kesişimi ve A B birleşimi, sırasıyla, üyelik fonksiyonlarına sahip X üzerinde bulanık kümelerdir:

Minimax yaklaşımını kullananlar Şekil 1'de gösterilmektedir. 3.2.

Pirinç. 3.2. Minimaks yaklaşımını kullanarak bulanık kümelerin kesişim ve birleştirme işlemlerinin gerçekleştirilmesine örnekler

Kesişme işlemi genellikle mantıksal "VE" bağlacını temsil etmek için kullanılır ve birleştirme işlemi, mantıksal "OR" bağlacını temsil etmek için kullanılır.

A ve B işlenenleri olarak sıradan, açık kümeler alırsak, bu şekilde tanımlanan kesişim ve birleşim işlemlerinin klasik küme teorik analoglarına indirgendiğini görmek kolaydır. Ayrıca bu işlemler için aşağıdaki özellikler geçerlidir:

Bulanık küme teorisinin temel kavramları

değişme:

Bir ∩ B= B∩ A, A B= B A;

ilişkisellik:

(A∩ B) ∩ C= A∩ (B∩ C) ,

(A B) C= A(B C) ;

sınır koşulları:

bir ∩ =,

bir = bir,

bir ∩ X= A,

X = X;

iktidarsızlık:

bir ∩ Bir= Bir A= A;

DAĞILMA:

Bir ∩ (B C) = (A ∩ B) (A ∩ C),

Bir (B∩ C) = (A B) ∩ (A C).

Bulanık kesişim ve birleşim operasyonlarını tanımlamak için düşünülen yaklaşım mümkün olan tek yaklaşım değildir. Çoğunlukla farklı bir yaklaşım kullanılır; buna göre:

μ A ∩ B (x )= μ A (x )μ B (x ),x X ,

μ A B (x )= μ A (x )+ μ B (x )− μ A (x )μ B (x ),x X .

Bu yaklaşıma bazen olasılıksal denir, çünkü formlarındaki karşılık gelen ifadeler, rastgele olayların kesişme ve birleşimi olasılıklarını belirleyen ifadelerle örtüşür. Olasılıksal bir yaklaşım kullanarak kesişme ve birleştirme işlemlerinin gerçekleştirilmesine örnekler Şekil 1'de gösterilmektedir. 3.3.

Pirinç. 3.3. Olasılıksal bir yaklaşım kullanarak bulanık kümelerin kesişimi ve birleşimi işlemlerinin gerçekleştirilmesine örnekler

Olasılıksal bir yaklaşım kullanılarak tanımlanan kesişme ve birleşme işlemleri için, sınır koşullarının yanı sıra değişme ve birleşme özellikleri de geçerliliğini korur.

Bulanık küme teorisinin temel kavramları

Lovia. Eşitlik ve dağılım özellikleri yerine getirilmemiştir.

geçerlidir, ancak bunların daha az katı olan benzerleri geçerlidir:

Bir ∩ A A, A A A;

Bir ∩ (B C) (A ∩ B) (A ∩ C),

Bir (B∩ C) (A B) ∩ (A C).

Bulanık kesişim ve birleşim operasyonlarının tanımlanmasına yönelik tanıtılan yaklaşımlar, aşağıdakilerin kullanımına dayalı genelleştirilmiş bir yaklaşımın özel durumları olarak düşünülebilir. üçgensel normlar ve uygunluklar.

İki değişkenli T (x,y) fonksiyonu × alanında (yani birim karede), segmentteki değerleri alarak ve aşağıdaki koşulları karşılayarak (tüm olası x ve y değerleri için) verilsin. :

1) değişme özelliği: T(x, y) = T(y, x);

2) monotonluk: x1 ≤ x2, y1 ≤ y2 T(x1, y1) ≤ T(x2, y2);

3) çağrışımsallık: T(T(x, y), z) = T(x, T(y, z));

4) sınır koşulu: T(x, 1) = T(1, x) = x.

Benzer şekilde, aynı alanda bir S(x,y) fonksiyonunun verilebilmesine izin verin, segmentteki değerleri alarak ve aşağıdaki koşulları karşılayan x ve y'nin tüm olası değerleri için:

1) değişme özelliği: S(x, y) = S(y, x);

2) monotonluk: x1 ≤ x2, y1 ≤ y2 S(x1, y1) ≤ S(x2, y2);

3) çağrışımsallık: S(S(x, y), z) = S(x, S(y, z));

4) sınır koşulu: S(x, 0) = S(0, x) = x.

Daha sonra T(x,y) fonksiyonu çağrılır üçgen normu veya

T-norm ve S(x, y) – üçgen uygunluk veya S-norm.

T normlarına ve S normlarına örnekler:

T M (x ,y ) = min(x ,y );

S M (x ,y ) = maksimum(x ,y );

T P(x,y) =xy;

SP (x,y) = x +y –xy;

T L (x ,y ) = maksimum(x +y –1, 0);

S L (x ,y ) = min(x +y , 1).

T- ve S-normlarını kullanarak, bulanık kümelerin kesişimi ve birleşimi işlemlerinin aşağıdaki genelleştirilmiş tanımını sunabiliriz:

μ A ∩ B (x )= T (μ A (x ),μ B (x )),x X ,

μ A B (x )= S (μ A (x ),μ B (x )),x X .

burada T bir T-normu, S bir S-normu.

Cebirsel çarpım A Ve B ile gösterilir AB ve şu şekilde tanımlanır:

xE  AB ( X) =  Bir ( X) B ( X).

Cebirsel toplam Bu kümelerin her biri aşağıdaki şekilde gösterilir ve tanımlanır:

xE =  bir ( X) +  B ( X)A ( X) B ( X).

(, ) işlemleri için aşağıdaki özellikler sağlanır:

- değişebilirlik;

- ilişkisellik;

A = , A  = A, AE = A, A E = E

- De Morgan'ın teoremi.

Yerine getirilmemiş:

İdempotens;

- DAĞILMA;

ve ayrıca A = , A = E.

Yorum. Bulanık kümelerdeki işlemlerin verilen özelliklerinin kanıtlarını okuyucuya bırakıyoruz.

Örneğin, şu özelliği kanıtlayalım: . Haydi belirtelim  bir ( X) başından sonuna kadar A ,  B ( X) başından sonuna kadar B . Daha sonra her öğe için sol tarafta X elimizde: 1- ab , ve sağda: (1- A )+(1-B )-(1-A )(1-B ) = 1-A +1-B- 1+A +a-ab = 1-ab . 

Dağıtılabilirlik özelliğinin geçerli olmadığını kanıtlayalım; A(B C)  (AB) (AC). Sol taraf için elimizde: A (B +c-bc ) = ab +ac-abc ; sağ için: ab +AC -(ab )(AC ) = ab +AC +A 2 M.Ö . Bu, dağıtımın geçerli olmadığı anlamına gelir aa 2 . 

Yorum.(, ,,) işlemleri birlikte kullanıldığında aşağıdaki özellikler sağlanır:

A(BC) = (AB)(A  C);

A (BC) = (AB)(AC);

A (BC) = (A B)(A C);

A (BC)=(A B)(A C).

Bulanık kümelerdeki temel işlemleri incelemeye devam edelim.

Cebirsel çarpım işlemine dayalı (en azından tamsayılar için) bu temel açıktır) operasyon belirlenir üs alma bulanık küme A, Nerede - pozitif sayı. Bulanık küme Aüyelik fonksiyonu tarafından belirlenir  Bir  =   Bir (x). Üs almanın özel bir durumu:

CON(A) = A 2- operasyon konsantrasyon,

DIL(A) = A 0,5- operasyon burkulmalar,

dilsel belirsizliklerle çalışırken kullanılır.

Bir sayıyla çarpmak. Eğer - öyle pozitif bir sayı ki   bir ( X) 1, ardından bulanık küme A bir üyelik işlevi vardır:

A( X) = A( X).

Bulanık kümelerin dışbükey birleşimi.İzin vermek A 1 , A 2 ,.., A n - evrensel kümenin bulanık kümeleri e, A  1 ,  2 , ...,  n- toplamı 1'e eşit olan negatif olmayan sayılar.

Dışbükey kombinasyon A 1 , A 2 ,.., A n'ye bulanık küme denir Aüyelik fonksiyonu ile:

xE bir ( X 1 , X 1 ,..., X n) =  1  A1 ( X) +  2  A2 ( X) + ... +  n  Ai ( X).



Bulanık kümelerin kartezyen çarpımı.İzin vermek A 1 , A 2 , ..., A n - evrensel kümelerin bulanık alt kümeleri e 1 , e 2 , ..., e sırasıyla n. Kartezyen ürün bir = bir 1 A 2  ... A n, kümenin bulanık bir alt kümesidir E = E 1 e 2 ... e n üyelik fonksiyonu ile:

 bir ( X 1 ,X 1 , ...,X n) = dk(  A1 ( X 1),  A2 ( X 2) , ... ,  Ai ( X N) ).

Bulanık Artan Operatör Kesin kümeleri bulanık kümelere dönüştürmek ve bulanık kümenin bulanıklığını arttırmak için kullanılır.

İzin vermek A- bulanık küme, e- herkes için evrensel set xE bulanık kümeler tanımlanır k( X) . Her şeyin bütünlüğü k( X) bulanık artan operatörün çekirdeği denir F. Operatörün eyleminin sonucu F bir bulanık kümeye A, aşağıdaki biçimde bir bulanık kümedir:

Ф(A, K) =  Bir ( X)K( X),

Nerede  bir ( X)K( X) - bir sayı ile bir bulanık kümenin çarpımı.

Örnek:

e = {1,2,3,4};

A = 0,8/1+0,6/2+0/3+0/4;

k(1) = 1/1+0,4/2;

k(2) = 1/2+0,4/1+0,4/3;

k(3) = 1/3+0,5/4;

k(4) = 1/4.

F(A,K) = A(1) k(1)  bir(2)k(2)  bir(3)k(3) bir(4)k(4) =

0,8(1/1+0,4/2)  0,6(1/2+0,4/1+0,4/3) =

0,8/1+0,6/2+0,24/3.

-seviyesinin (veya ) net seti . Bir bulanık kümenin -düzey kümesi A Evrensel set e isminde temizlemek alt küme A evrensel set e, şu şekilde tanımlanır:

A ={X / A(X )), burada 1.

Örnek: A= 0,2/x 1 + 0/x 2 + 0,5/x 3 + 1/x 4 ,

Daha sonra 0,3 = {X 3 ,X 4 },

0,7 = {X 4 }.

Oldukça açık bir özellik: eğer  1  2 ise, o zaman A 1  A 2 .

Ayrışma teoremi. Herhangi bir bulanık küme Aşu şekilde seviye kümelerine ayrıştırılabilir:

A = A , Nerede A - bir sayının çarpımı birçok A, Ve Değer aralığını "geçer" M bulanık küme üyelik fonksiyonları A.

Örnek:A = 0,1/X 1 + 0/X 2 + 0,7/X 3 + 1/X 4 şu şekilde temsil edilebilir:

A = 0,1(1,0,1,1)  0,7(0,0,1,1,)  1(0,0,0,1)=

= (0,1/x 1 + 0/x 2 + 0,1/x 3 + 0,1/x 4) (0/x 1 + 0/x 2 + 0,7/x 3 + 0,7 /x 4)

(0/x 1 + 0/x 2 + 0/x 3 + 1/x 4) = 0,1/x 1 +0/x 2 +0,7/x 3 +1/x 4.

Üyelik fonksiyonunun etki alanı şunlardan oluşuyorsa: N derecelendirmeler  1   2   3  ...  n , sonra A(sabit derecelendirme değerleri ile) şu şekilde temsil edilebilir:

A = Ben A ben,

onlar. sıradan kümelerin bir koleksiyonu tarafından belirlenir ( A 1 , A 2 , ..., Ai ), burada A1  A2  , ...,  Ai.

7. Dilsel değişkenler. Dilsel değişken örnekleri. Terma kavramı. Terim sayısının belirlenmesi

Dilsel değişken- bulanık küme teorisinde, doğal veya yapay bir dildeki ifadelerin anlamını alabilen bir değişken. Örneğin “hız” dilsel değişkeni “yüksek”, “orta”, “çok düşük” vb. değerlere sahip olabilir. Değişkenin değerini aldığı ifadeler ise bulanık değişkenlerin adlarıdır ve şu şekilde tanımlanır: bulanık bir küme.

Örnek: bulanık yaş

Bir kişinin yaşını tanımlayan dilsel bir değişkeni düşünün, o zaman:

x: "yaş";

X: aralıktaki tam sayılar kümesi;

T(x): “genç”, “olgun”, “yaşlı” anlamına gelir. set T(x) - her bir değer için bir dizi bulanık değişken: "genç", "olgun", "yaşlı", insanların hangi yaşta genç, olgun olarak kabul edilmesi gerektiği hakkında bilgiyi belirten bir üyelik fonksiyonunun ayarlanması gerekir , eskimiş;

G: “çok”, “pek değil”. Bu tür eklemeler yeni anlamların oluşmasına olanak sağlar: “çok genç”, “çok yaşlı değil” vb.

M: G kuralı kullanılarak oluşturulan her değer için üyelik fonksiyonunun türünü belirleyen bir matematik kuralı.

Terim- resmi bir dilin (sistemin) ifadesi, bir nesnenin resmi adı veya bir formun adıdır. Konsept Terma endüktif olarak belirlenir. Bir terim sembolik bir ifadedir: t(X1, X2,…, Xn), burada t, bir işlev veya “işlevsel harf” olarak adlandırılan terimin adıdır ve X1, X2,…, Xn, yapılandırılmış veya basit terimlerdir .

8. Bulanık ilişkiler ve özellikleri

Bulanık kümeler teorisinin temel kavramlarından biri bulanık ilişki kavramıdır. Bu ilişkiler, "neredeyse eşit" veya "çok daha fazla" gibi kesin olmayan ifadeleri resmileştirmemize olanak tanır. Bir bulanık ilişkinin ve bulanık ilişkilerin bir kombinasyonunun tanımını verelim.

Boş olmayan iki küme (kesin) arasındaki bulanık ilişkiye Kartezyen çarpımda tanımlanan bulanık küme adını vereceğiz.

Bulanık çıkarım, bulanık koşullara veya öncüllere dayalı olarak bulanık sonuçlar elde etme sürecidir.

Bulanık bir nesne kontrol sistemi ile ilgili olarak, bulanık mantıksal çıkarım, nesnenin mevcut durumu hakkındaki bilgileri temsil eden bulanık koşullara veya öncüllere dayalı olarak bir nesnenin gerekli kontrolü hakkında bulanık sonuçların elde edilmesi sürecidir.

Mantıksal çıkarım aşamalar halinde gerçekleştirilir.

Bulanıklaştırma (bulanıklığın getirilmesi), bir bulanık çıkarım sisteminin girdi değişkeninin sayısal değeri ile dilsel değişkenin karşılık gelen teriminin üyelik fonksiyonunun değeri arasında bir yazışmanın kurulmasıdır. Bulanıklaştırma aşamasında, bulanık çıkarım sisteminin dışında bir şekilde, örneğin istatistiksel veriler kullanılarak elde edilen, bulanık çıkarım sisteminin tüm giriş değişkenlerinin değerleri, sistemin üyelik fonksiyonlarının belirli değerlerine atanır. Bulanık çıkarım sisteminin bulanık üretim kurallarının temelini oluşturan, bulanık üretim kurallarının çekirdeklerinin koşullarında (önceleri) kullanılan karşılık gelen dilsel terimler. Bulanık üretim kurallarının öncüllerinde yer alan "IS" formundaki tüm temel mantıksal ifadelerin doğruluk dereceleri (a) bulunursa, bulanıklaştırmanın tamamlanmış olduğu kabul edilir; burada bilinen üyelik fonksiyonu µ(x) olan belirli bir terimdir, dilsel bir değişkenin evrenine ait açık bir sayısal değerdir.

Bulanık algoritma kavramı ilk olarak L.A. tarafından ortaya atılmıştır. Zadeh, karmaşık sistemlerin ve karar verme süreçlerinin yaklaşık analizi için önemli bir araçtır. Bir bulanık algoritma, formülasyonu bulanık talimatlar (terimler) içeren sıralı bir bulanık talimatlar (kurallar) kümesi olarak anlaşılmaktadır.

Ortaya çıkan bulanık kümeden, daha sonra problemin çözümü olarak kabul edilen tek bir net değere ()o geçişine durulaştırma denir.

11. Mamdani'nin algoritması ilk bulanık otomatik kontrol sistemlerinde uygulama alanı buldu. 1975 yılında İngiliz matematikçi E. Mamdani tarafından bir buhar motorunun kontrol edilmesi önerildi.

Bulanık çıkarım sisteminin kural tabanının oluşturulması, bulanık üretim kurallarının çekirdeklerinin öncüllerinin, bulanık üretim kurallarının çekirdeklerinin öncüllerinin oluşturulduğu "IF A THEN B" formundaki sıralı, üzerinde anlaşmaya varılan bulanık üretim kuralları listesi formunda gerçekleştirilir. Mantıksal bağlaçlar “VE” ve bulanık üretim kurallarının çekirdeklerinin sonuçları basittir.

Giriş değişkenlerinin bulanıklaştırılması, tıpkı bir bulanık çıkarım sisteminin oluşturulmasındaki genel durumda olduğu gibi, yukarıda açıklanan şekilde gerçekleştirilir.

Bulanık üretim kurallarının alt koşullarının toplanması, iki temel ifade olan A, B'nin klasik bulanık mantıksal işlemi "VE" kullanılarak gerçekleştirilir: T(A ∩ B) = min( T(A);T(B) ) .

Bulanık üretim kurallarının alt sonuçlarının etkinleştirilmesi, minimum etkinleştirme yöntemiyle gerçekleştirilir μ (y) = min(c; μ (x) ) , burada μ (x) ve c sırasıyla dilsel değişkenlerin terimlerinin üyelik fonksiyonlarıdır. ve bulanık üretim kurallarının karşılık gelen sonuç (sonuç) çekirdeklerini oluşturan bulanık ifadelerin doğruluk derecesi.

Bulanık üretim kurallarının alt sonuçlarının toplanması, üyelik fonksiyonlarının klasik bulanık mantık maksimum birleşimi ∀ x ∈ X μ A B x = max( μ A x ; μ B x ) kullanılarak gerçekleştirilir.

Durulaştırma, ağırlık merkezi veya alan merkezi yöntemi kullanılarak gerçekleştirilir.

12 Bulanık kurallara dayalı sistemleri uygulamak için birçok bulanık çıkarım algoritması geliştirilmiştir. Bulanık çıkarım algoritmaları temel olarak kullanılan kuralların türüne, mantıksal işlemlere ve durulaştırma yönteminin türüne göre farklılık gösterir. Mamdani, Sugeno, Larsen ve Tsukamoto bulanık çıkarım modelleri geliştirilmiştir.

Örneğin bulanık çıkarım kuralları şu şekilde verilmektedir:

P1: x A ise w D'dir, P2: y B ise w E'dir, P3: z C ise w F'dir,

burada x, y, z – giriş değişkenlerinin adları (açık format);

w – çıktı değişkeninin adı;

A, B, C, D, E, F – verilen üyelik fonksiyonları.

FAT teoremi B. Kosko: Herhangi bir klasik matematiğe bulanık matematik yoluyla yaklaşılabilir. Onlar. Belirli bir para biriminin döviz kuru dalgalanma fonksiyonuna mümkün olduğu kadar yakın bir şekilde yaklaşan bulanık bir sistem oluşturmak mümkündür.

ES'deki açıklama sisteminin temel avantajları.

1) Açıklamalar kullanıcının sorunlarını çözmek için sistemi kullanmasına yardımcı olur,

2) ES, net algoritmaların olmadığı, zayıf biçimlendirilmiş alanlarda kullanıldığından, açıklamalar kullanıcının elde edilen sonuçların doğruluğuna ikna olmasını sağlar ve ES'ye olan güven derecesini arttırır,

3) Kullanıcı eğitimine hizmet etmek,

4) ES bilgi tabanında hata ayıklamaya hizmet edin

ES'deki açıklama sisteminin ana dezavantajları.

1) Açıklama talepleri yalnızca tek bir dar anlamda yorumlanır (NEDEN ve NASIL soruları yalnızca amaç ve kurallar açısından yorumlanır),

2) Sistemin tüm eylemleri açıklanamıyor (örneğin, neden önce bir hipotezin, sonra diğerinin test edildiği),

3) Açıklamalar aslında programın yürütme yoluna dayanmaktadır, dolayısıyla yorumlayıcıyı değiştirirken açıklama sistemini de değiştirmek gerekir.

Risklerin dikkatli bir şekilde değerlendirilmesi ve dikkate alınması, her şirketin başarısının ayrılmaz bir parçası ve önemli bir bileşeni haline gelmiştir. Ancak şirketler giderek daha fazla belirsizlik koşullarında karar vermek zorunda kalıyor; bu da öngörülemeyen sonuçlara ve buna bağlı olarak istenmeyen sonuçlara ve kayıplara yol açabiliyor. Özellikle yatırım projelerinin değerlendirilmesinde ima edilen, uzun vadeli yatırımlarla ilgili yanlış kararlar, özellikle ciddi sonuçlara yol açabilmektedir. Bu nedenle, zamanında tanımlamanın yanı sıra yeterli ve en doğru risk değerlendirmesi, modern yatırım analizinin acil sorunlarından biridir.

Ne yazık ki, mevcut muhasebe ve risk değerlendirme yöntemleri subjektiflikten ve önemli önkoşullardan yoksun değildir ve bu da proje riskinin yanlış değerlendirilmesine yol açmaktadır. Bulanık mantık teorisi, risk değerlendirmesine yönelik yeni ve dinamik olarak gelişen bir yaklaşımdır. Son zamanlarda bulanık modelleme, yönetim ve karar verme alanında uygulamalı araştırmaların en aktif ve gelecek vaat eden alanlarından biri olmuştur.

Bu çalışma şunları sunar:

Risk ve belirsizliğin tanımı,

Risk analizinde yeni yaklaşımların kullanılması ihtiyacının gerekçelendirilmesi,

bulanık mantık yönteminin kısa bir açıklaması,

bulanık mantık uygulama örnekleri

Sinir ağlarının çözdüğü problemler çok çeşitlidir. Bu yöntemin tıp, finansal yönetim ve siyaset bilimi gibi alanlarda uygulama bulması şaşırtıcı değildir. Genel olarak, YSA kullanılarak çözülen problemlerin büyük kısmını çeşitli problem kategorilerine indirgeyebiliriz.

Sınıflandırma. Sinir ağının görevi, nesneleri önceden belirlenmiş, birbiriyle örtüşmeyen çeşitli sınıflara dağıtmaktır.

Siyaset biliminde sinir ağı yöntemi, özellikle olay analizinde sınıflandırma problemlerini çözmek için kullanılır. Barışçıl bir çözüme yol açan çatışma olay dizileri sınıfı ve askeri çatışmaya yol açan çatışma olay dizileri sınıfı önceden belirlenir

Yapay bir nöron (McCulloch-Pitts matematiksel nöron, resmi nöron), doğal bir nöronun basitleştirilmiş bir modeli olan yapay bir sinir ağının bir düğümüdür. Matematiksel olarak, bir yapay nöron genellikle tek bir argümanın doğrusal olmayan bir fonksiyonu (tüm giriş sinyallerinin doğrusal bir kombinasyonu) olarak temsil edilir. Bu fonksiyona aktivasyon fonksiyonu veya tetikleme fonksiyonu, transfer fonksiyonu denir. Ortaya çıkan sonuç tek bir çıktıya gönderilir. Bu tür yapay nöronlar ağlar halinde birleştirilir; bazı nöronların çıktılarını diğerlerinin girdilerine bağlarlar. Yapay nöronlar ve ağlar ideal bir nörobilgisayarın ana unsurlarıdır

18. Aktivasyon fonksiyonu (aktivasyon fonksiyonu, uyarma fonksiyonu) – yapay bir nöronun çıkış sinyalini hesaplayan bir fonksiyon. Bir argüman olarak, giriş toplayıcı Sigma'nın çıkışında alınan Y sinyalini alır. En sık kullanılan aktivasyon fonksiyonları şunlardır:

1. Tek atlama veya sert eşik fonksiyonu

Basit parçalı doğrusal fonksiyon. Giriş değeri eşikten küçükse, aktivasyon fonksiyonunun değeri izin verilen minimum değere, aksi takdirde izin verilen maksimum değere eşittir.

Etkinleştirme işlevi. Sert eşik fonksiyonu

2. Doğrusal eşik veya histerezis

Basit parçalı doğrusal fonksiyon. Aktivasyon fonksiyonunun izin verilen minimum ve izin verilen maksimum değerlere aynı şekilde eşit olduğu iki doğrusal bölüme sahiptir ve fonksiyonun kesinlikle monoton olarak arttığı bir bölüm vardır.

Etkinleştirme işlevi. Doğrusal eşik

3. Sigmoid işlevi veya sigmoid

Doygunluk ile her yerde monoton olarak artan türevlenebilir S-şekilli doğrusal olmayan fonksiyon. Sigmoid, zayıf sinyalleri güçlendirmenize ve güçlü sinyallere doymamanıza olanak tanır. Grossberg (1973) böyle doğrusal olmayan bir aktivasyon fonksiyonunun gürültü doygunluğu ikilemini çözdüğünü buldu.

Yapay sinir ağı (YSA), biyolojik sinir ağlarının (canlı bir organizmanın sinir hücrelerinin ağları) organizasyonu ve işleyişi ilkesine dayanan bir matematiksel modelin yanı sıra yazılım veya donanım uygulamasıdır. Bu kavram beyinde meydana gelen süreçleri incelerken ve bu süreçleri modellemeye çalışırken ortaya çıktı. Bu türden ilk girişim W. McCulloch ve W. Pitts'in sinir ağlarıydı. Öğrenme algoritmalarının geliştirilmesinden sonra ortaya çıkan modeller pratik amaçlar için kullanılmaya başlandı: problemlerin tahmin edilmesinde, örüntü tanımada, kontrol problemlerinde vb.

YSA (Yapay Sinir Ağı), yapay nöronların düğüm olduğu, ağırlıklı bağlantılara sahip yönlendirilmiş bir grafik olarak düşünülebilir. Bağlantı mimarisine bağlı olarak YSA'lar iki sınıfa ayrılabilir: grafiklerin döngü içermediği ileri beslemeli ağlar ve tekrarlayan ağlar veya geri besleme bağlantılı ağlar. Çok katmanlı algılayıcılar olarak adlandırılan birinci sınıf ağların en yaygın ailesinde, nöronlar katmanlar halinde düzenlenir ve katmanlar arasında tek yönlü bağlantılara sahiptir. Şekil her sınıfın tipik ağlarını göstermektedir. İleri beslemeli ağlar, belirli bir girdi için ağın önceki durumundan bağımsız bir dizi çıktı değeri üretmeleri anlamında statiktir. Tekrarlayan ağlar dinamiktir, çünkü geri bildirim nedeniyle nöronların girdileri değiştirilir ve bu da ağın durumunda bir değişikliğe yol açar. 22

23. algılayıcı - algı sürecinin matematiksel bir modeli (Bkz. Algı). Yeni fenomen veya nesnelerle karşılaştığında kişi onları tanır, yani onları şu veya bu kavramla (sınıf) ilişkilendirir. Böylece tanıdıklarımızı kolaylıkla tanırız, saçlarını veya kıyafetlerini değiştirmiş olsalar bile, el yazılarını okuyabiliriz, her el yazısının kendine has özellikleri olmasına rağmen, bir melodiyi farklı bir düzenlemede tanırız vb. Bu insan yeteneğine algı olgusu denir. Bir kişi deneyime dayanarak yeni kavramlar geliştirebilir ve yeni bir sınıflandırma sistemini öğrenebilir. Örneğin el yazısı işaretleri ayırt etmeyi öğrenirken öğrenciye el yazısı işaretler gösterilerek bunların hangi harflere karşılık geldiği yani bu işaretlerin hangi sınıfa ait olduğu söylenir; Sonuç olarak işaretleri doğru şekilde sınıflandırma yeteneğini geliştirir.

Her bir hücreye düğüm veya algılayıcı denir:

giriş ve çıkış arasında bir düğüm katmanından oluşan bir sinir ağı, tek katmanlı bir algılayıcıdır: ve birkaç katmandan oluşan bir ağ, çok katmanlı bir algılayıcıdır:

Çok katmanlı bir algılayıcının tek katmanlı olandan daha verimli olduğu doğrudur

Eğitim, bir sinir ağının serbest parametrelerinin, ağın gömülü olduğu ortamı simüle ederek ayarlandığı bir süreçtir. Antrenman tipi bu parametrelerin ayarlanma şekline göre belirlenir.

Sinir ağı öğrenme sürecinin bu tanımı, aşağıdaki olay dizisini varsayar:

Sinir ağı dış ortamdan uyarı alır.

Birinci nokta sonucunda sinir ağının serbest parametreleri değiştirilmektedir.

İç yapıyı değiştirdikten sonra sinir ağı uyarılara farklı bir şekilde yanıt verir.

Bir sinir ağını eğitme problemini çözmek için yukarıdaki açık kurallar listesine öğrenme algoritması denir. Tüm sinir ağı mimarilerine uygun evrensel bir öğrenme algoritmasının olmadığını tahmin etmek kolaydır. Yalnızca çeşitli öğrenme algoritmaları tarafından temsil edilen ve her birinin kendine göre avantajları olan bir dizi araç vardır. Öğrenme algoritmaları, nöronların sinaptik ağırlıklarını ayarlama açısından birbirlerinden farklılık gösterir. Bir diğer ayırt edici özellik ise eğitilmiş sinir ağının dış dünyayla iletişim kurma şeklidir. Bu bağlamda, belirli bir sinir ağının çalıştığı ortamın modeliyle ilişkili bir öğrenme paradigmasından bahsediyoruz.

Bir sinir ağının denetimli eğitimi, eğitim setindeki her giriş vektörü için, hedef olarak adlandırılan, çıkış vektörünün gerekli bir değerinin bulunduğunu varsayar. Bu vektörler bir eğitim çifti oluşturur. Ağ ağırlıkları, her giriş vektörü için çıkış vektörünün hedeften kabul edilebilir bir sapma düzeyi elde edilene kadar değiştirilir.

Bir sinir ağının denetimsiz öğrenmesi, yapay sinir ağlarının biyolojik kökleri açısından çok daha makul bir öğrenme modelidir. Eğitim seti yalnızca girdi vektörlerinden oluşur. Sinir ağı eğitim algoritması, tutarlı çıktı vektörleri elde edilecek şekilde ağ ağırlıklarını ayarlar; böylece yeterince yakın girdi vektörlerinin sunumu aynı çıktıları verir.

X vektörlerinin X girişlerinin özellik uzayından Y çıkış uzayının Y vektörlerine F:X®Y dönüşümünü gerçekleştiren bir sinir ağı olsun. Ağ, W durum uzayından W durumundadır. bir eğitim örneği (Xa,Ya), a = 1 ..p. Ağın W durumunda yaptığı toplam E hatasını düşünün.

Tam hatanın iki özelliğine dikkat edelim. İlk olarak, E=E(W) hatası durum uzayında tanımlanan W durumunun bir fonksiyonudur. Tanım gereği negatif olmayan değerler alır. İkinci olarak, ağın eğitim setinde hata yapmadığı bazı eğitilmiş W* durumlarında bu fonksiyon sıfır değerini alır. Sonuç olarak, eğitilmiş durumlar, tanıtılan E(W) fonksiyonunun minimum noktalarıdır.



Makaleyi beğendin mi? Arkadaşlarınla ​​paylaş!