Sinirsel Ağlar

GİRİŞ:

 

Sinirsel ağlar çeşitli yollarla birbirine bağlı birimlerden oluşmuş topluluklardır. Her birim iyice basitleştirilmiş bir nöronun niteliklerini taşır. Nöron ağları sinir sisteminin parçalarında olup biteni taklit etmekte, işe yarar ticari cihazlar yapmakta ve beynin işleyişine ilişkin genel kuramları sınamakta kullanılır. Sinirsel ağ içindeki birimler, herbirinin belli işlevi olan katmanlar şeklinde örgütlenmiştir ve bu yapıya yapay sinir ağı mimarisi denir.

 

Yapay sinir ağlarının temel yapısı, beyne, sıradan bir bilgisayarınkinden daha çok benzemektedir. Yine de birimleri gerçek nöronlar kadar karmaşık değil ve ağların çoğunun yapısı, beyin kabuğundaki bağlantılarla karşılaştırıldığında büyük ölçüde basit kalmaktadır. Şimdilik, sıradan bir bilgisayarda, akla uygun bir sürede taklit edilebilmesi için bir ağın son derece küçük olması gerekiyor. Gittikçe daha hızlı ve daha koşut çalışan bilgisayarlar piyasaya çıktıkça zamanla gelişmeler sağlanacaktır.

 

Yapay sinir ağlarındaki her bir işlem birimi, basit anahtar görevi yapar ve şiddetine göre, gelen sinyalleri söndürür ya da iletir. Böylece sistem içindeki her birim belli bir yüke sahip olmuş olur. Her birim sinyalin gücüne göre açık ya da kapalı duruma geçerek basit bir tetikleyici görev üstlenir. Yükler, sistem içinde bir bütün teşkil ederek, karakterler arasında ilgi kurmayı sağlar. Yapay sinir ağları araştırmalarının odağındaki soru, yüklerin, sinyalleri nasıl değiştirmesi gerektiğidir. Bu noktada herhangi bir formdaki bilgi girişinin, ne tür bir çıkışa çevrileceği, değişik modellerde farklılık göstermektedir. Diğer önemli bir farklılık ise, verilerin sistemde depolanma şeklidir. Nöral bir tasarımda, bilgisayarda saklı olan bilgiyi, tüm sisteme yayılmış küçük yük birimlerinin birleşerek oluşturduğu bir bütün evre temsil etmektedir. Ortama yeni bir bilgi aktarıldığında ise, yerel büyük bir değişiklik yerine tüm sistemde küçük bir değişiklik yapılmaktadır.

 

 

 

Yapay sinir ağları beynin bazı fonksiyonlarını ve özellikle öğrenme yöntemlerini benzetim yolu ile gerçekleştirmek için tasarlanır ve geleneksel yöntem ve bilgisayarların yetersiz kaldığı sınıflandırma, kümeleme, duyu-veri işleme, çok duyulu makine gibi alanlarda başarılı sonuçlar verir. Yapay sinir ağlarının özellikle tahmin problemlerinde kullanılabilmesi için çok fazla bilgi ile eğitilmesi gerekir.

Ağların eğitimi için çeşitli algoritmalar geliştirilmiştir. Lapedes ve R.Farber (1987) bir sinirsel ağın çok karışık zaman serilerinin nokta tahmininde kullanılabileceğini ve elde edilen sonuçların lineer tahmin metodu gibi klasik metodlara göre çok daha kesin olduğunu göstermişlerdir. Kar Yan Tam (Hong Kong Üniversitesi) ve Melody Y.Kiang (Arizona State Üniversitesi) geliştirdikleri sinirsel ağı, işletmelerin iflas gibi finansal güçlüklerini tahmin etmede kullanmışlardır.

 

Günümüzde sinirsel ağ uygulamaları ya geleneksel bilgisayarlar üzerinde yazılım simülatörleri kullanılarak, veya özel donanım içeren bilgisayarlar kullanarak gerçekleştirilmektedir. Kredi risk değerlemesinden imza kontrolü, mevduat tahmini ve imalat kalite kontrolüne kadar uzanan uygulamalar yazılım paketlerinden faydalanılarak yapılmaktadır.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

BÖLÜM 2

YAPAY SİNİR AĞLARI NEDİR?

2.1 TANIM

Bir Yapay Sinir Ağı (YSA), beyin gibi biyolojik sinir sistemlerinin bilgi işleme yolu ilham alınmış bir bilgi işlem dizisidir. Bu dizinin anahtar elemanı, bilgi işlem merkezinin romansı yapısıdır. Bu, özel problemlerin çözümüne uyumda çalışan,birbirine bağlanabilen büyük numaraların kompoze edilmesidir. YSA’lar ,insan gibi, örnek yoluyla öğrenir. Bir YSA örnek tanıma ya da veri sınıflandırması gibi, bilgi işleme doğru çeşitli uygulamalar için konfigüre edilmiştir. Biyolojik sistemlerde bilgi nöronlar arasındaki sinaptik bağlantılar için ayarlar içerir.


Şekil-1.1.1 Sinir Ağlarında Bir Birim

 

X=(X1,X2,X3,….Xn) ,Xi‘lerin gerçek sayı olduğu yerde, U birimine tanıtılmış giriş takımını göstersin. Her giriş kısmi bağlantıların güçlülüğünü gösteren birleştirilmiş ağırlığa sahiptir. W= (W1,W2….Wn) ,Wi reel, giriş vektörü X’e uygun ağırlık vektörünü göstersin. U’ya uygulanmış bu ağırlıklı girişler U’da ağ toplamı ürelitir. Bu şöyle verilmiştir:

    S = SUM (Wi*Xi)=W.X

U’nun etkinleştirme değeri, U biriminin durumu A numerik değeriyle gösterilmektedir. Bir ¦ etkinleştirme fonksiyonu, şimdi aktivasyon değerine ve net toplamdan birime birimin etkinleştirme değerine karar verir. Basit bir deyişle ¦ sadece net toplamın fonksiyonudur. Bu yüzden A = ¦(s). U ünitesinde çıkış A’nın fonksiyon dönüşündedir.

Bir yapay sinir ağı, böyle birimlerin ve onların arasındaki ağırlıklı tek yönlü bağlantıların birleştirilmesidir. Bazı sinir ağlarında bu birimlerin sayısı binlerce olabilir. Bir ünitenin çıkışı tipik olarak diğeri için bir giriş olur. Burada ayrıca harici girişler ve çıkışlarla üniteler olabilir. Şekil –2 olası bir sinir ağı yapısını gösteriyor.


Şekil-1.1.2Yapay sinir ağı yapısının örneği.

Bir basit lineer ağ için, aktivasyon fonksiyonu bir lineer fonksiyondur. Bu yüzden:

¦(cs) = c¦(s)

¦(s1+s2)=¦(s1)+¦(s2)

Bir aktivasyon fonksiyonu için diğer ortak form, bir eşik fonksiyonudur. Eğer net toplam S verilen sabitten büyük ise aktivasyon değeri 1’dir, diğer durumlarda 0’dır.

 

 

 

 

2.2 TARİHİ GEÇMİŞ

Yapay Sinir Ağları simulasyonları en son gelişme gibi görünmektedir. Bununla birlikte bu alan, bilgisayarların gelişiminden önce kurulmuştu ve farklı çağlarda hayatta kalmıştır.

Pek çok önemli ilerleme, ucuz bilgisayar emulasyonunun kullanımıyla canlandırılmıştır. Alan kötü ün ve hüsran peryoduyla bırakılmıştır. Bu peryot süresince kısa vadeli borç uzun vadeli borca dönüştürüldüğünde ve profesyonel desteğin en az olduğu zamanda, önemli ilerlemeler birkaç araştırmacı tarafından yapılmıştı. Bu öncüler, Minsky ve Papert tarafından tanımlanan sınırlamaların geçildiği inandırıcı teknoloji geliştirmede yetenekliydi. Şu anda sinir ağlar alanı kısa vadeli borcun uzun vadeli borca dönüşmesinde uygun artış ve ilginin dirilmesine sahiptir.

İlk yapay sinir 1943 yılında Warren McCullock adında bir nöropsikolog ve fizikçi Walter Pits tarafından üretilmiştir. Fakat teknoloji o zamanlar, onların daha fazlasını yapmasına müsait değildi.

 

2.3 YAPAY SİNİR AĞLARI NİÇİN KULLANILIR?

Sinir ağları, karmaşık ya da kesin olmayan veriden anlam türetme yeteneğiyle dikkate değerdir; insanlar ya da diğer bilgisayar teknikleriyle fark edilmesi karışıkolan eğilimleri bulmak ve örnek çıkarmak için kullanılabilir. Alışkın bir sinir ağı , analiz edilmesi için verildiği enformasyon kategorisinde “uzman” olarak düşünülebilir. Bu uzman daha sonra “eğer” sorularını cevaplama ve verilen yeni ilgi durumlarına izdüşüm sağlamak için kullanılabilir.

Diğer üstünlüklerin içeriği:

  1. Uyumlu Öğrenme: Eğitim için ya da önceki tecrübelerde verilmiş veri üstünde baz alınmış görevlerin nasıl yapılacağını öğrenme yeteneği.
  2. Self-organizasyon: Bir YSA, öğrenme süreci boyunca ulaştığı enformasyonu temsil eden ya da kendi organizasyonunu yaratabilir.
  3. Gerçek Zamanlı İşlem: YSA bilgileri parelel taşınabilir ve özel donanım aletleri dizayn edilmiş ve yeteneklilik avantajıyla imal edilmiştir.
  4. Gereksiz Bilgi Kodlaması Yoluyla Hata Töleransı: Bir ağın bölümsel yıkımı performansının benzer ayrışımına götürür. Bununla birlikte, bazı ağ yetenekleri büyük ağ zararlarıyla birlikte tutulabilir.

2.4 YAPAY SİNİR AĞLARINA KARŞI GELENEKSEL BİLGİSAYARLAR

Sinir ağları problem çözümünde geleneksel bilgisayarlardan daha farklı yaklaşımları içine alır. Geleneksel bilgisayarlar, bilgisayarın problem çözme sırasında komutlar kurarak takip ettiği algoritmik yaklaşımı kullanır. Bu sınırlamalar bizim daima anladığımız ve nasıl çözeceğimizi bildiğimiz problemler için geleneksel bilgisayarların problem çözme yetenekliliğidir. Ancak bilgisayarlar eğer, bizim nasıl yapılacağını kesin olarak bilmediğimiz şeyleri yapabildiğimizde çok yararlı olurlar.

 

Yapay sinir ağları, insan beyninin yaptığı gibi benzer yolla bilgi işler. Ağ, bir özel problem çözümünde paralel çalışan, yüksek derecede birbirine bağlı işlem elementlerinin (nöronlar) en geniş numarasının kompozesidir. Bunlar bir özel görevin performansı için programlanmış olamaz. Örnekler dikkatlice seçilmiş olmak zorundadır, diğer bir deyişle yararlı zaman harcanmış ya da daha kötüsü, ağ fonksiyonlamasında düzeltilemezlik olabilir. Dezavantaj, ağ problemi nasıl çözeceğini kendi kendine bulacağından; operasyonları önceden bildirilemeyebilir.

Bir başka deyişle, geleneksel bilgisayarlar problem çözümünde belirli küçük komutlarda düzenlenmiş ve bilinmek zorunda olunan yolla bilişsel yaklaşım kullanır. Bu komutlar bilgisayarın anlayabileceği makine kodlarına ve yüksek seviyeli dil programına dönüştürülmüştür. Bu makineler, eğer hiç birşey yazılım veya donanım hatalarına doğru yanlışa gitmiyorsa, topluca önceden bildirilebilir.

Sinir ağları ve geleneksel algoritmik bilgisayarlar karşılaştırmada değildir; fakat biri diğerini tamamlar. Burada sinir ağları ve algoritmik operasyonlar gibi algoritmik yaklaşımlara uygun görevler vardır. Görevlerin en büyük numarası, maksimum etkinlikte görev sırası içindeki (normalde bir geleneksel bilgisayar, sinir ağları denetlemede kulanılırdı.) 2 yaklaşımın kombinasyonunu kullanan istek sistemleri ister. Sinir ağları mucize yaratmazlar; fakat hassa kullanılırsa bazı inanılmaz sonuçlar üretebilirler.

 

BÖLÜM 3

İNSAN SİNİRLERİ VE YAPAY SİNİRLER

3.1 İNSAN BEYNİ NASIL ÖĞRENİR?

Beynin bilgi işlemeyi kendi kendine bilgi işlemeyi nasıl eğittiği hakkında hala bilinmeyen öyle çok şey var ki bu yüzden teoriler çok sayıdadır. İnsan beyninde, bir tipik sinir dentrit denen ince yapılar aracılığıyla bir diğerinden sinyal toplar. Sinirler dalların binlercesinden sökülen, akson olarak bilinen ince yer bir uzun içinden aktif elektriğin sivri ucunu gönderir. Dal sonunda, sinap adı verilen yapı, hareketi aksondan tutulan elektrikli etki içine dönüştürür. Bir sinir yavaşlatıcı girişleriyle karşılaştırılmış yeterince geniş heyecan girişi aldığında aksonlarına elektrikli hareket uç gönderir. Bilgi sinaplarının etkililiğinin değişmesiyle meydana gelir ve bu yüzden sinirin bir diğerine etkisi azalır.


 

 

Şekil 3.1.1 Sinir bileşenleri

 

 

 

 

 


Şekil 3.1.2 Sinap

 

3.2 İNSAN SİNİRLERİNDEN YAPAY SİNİRLERE:

Birbirine bağlantıları ve sinirlerin başlıca özelliklerini anlamak için ilk denemeyle bu sinir ağları iletiriz. Sonra bu özelliklere benzemek için bilgisayarı programlarız. Bununla beraber, bizim sinir bilgimiz eksik, hesaplama gücümüz sınırlı, modellerimiz mutlaka gerçek sinir ağlarının idealliğidir.


            

Şekil 3.2 Bir sinir Yapısı

 

 

 

 

 

BÖLÜM 4

MÜHENDİSLİKSEL YAKLAŞIM

BİR BASİT YAPAY SİNİR

Bir yapay sinir çok giriş ve bir çıkışlı bir araçtır. Sinir 2 mod operasyonuna sahiptir. Eğitim modu ve kullanım modu. Eğitim modunda sinir,tetikleme için(ya da değil) eğitilmiş olabilir. Kullanım modunda ise , öğretim giriş örneği girişte bulunuyorsa, birleştirilmiş çıkışları akım çıkışı oluyor. Eğer giriş örneği öğretim listesine uygun değilse, tetikleme kuralları tetikleyip tetiklemediğine karar vermekte kullanılır.

 

 

            Şekil 4.1 Basit bir sinir yapısı

 

 

4.2 TETİKLEME KURALLARI:

Tetikleme koşulu sinir ağlarında önemli bir kavramdır ve onların yüksek esnekliğini hesaplar. Tetikleme kuralı bir sinirin herhangi bir giriş örneği için nasıl bir hesaplama olacağına karar verir.Basit bir tetikleme kuralı Hamming ara tekniği kullanarak tamamlanmış olabilir. Bu kuralları şöyle açıklayabiliriz:

 

Bir düğüm için eğitilmiş örneği alalım ki bunların bazısı tetiklemeye sebeb olur (1 düşünme örgü grubu); bazısı da bunun yapılmasını engeller (0 düşünme grubu). Daha sonra ortak elemen çok ise 1 düşünme grubuna ya da 0 düşünme grubuna en yakın olana göre tetikleme yapılır.

Örneğin bir 3 girişli sinir, girişler (X1,X2,X3) 111 ya da 101 iken çıkış 1; ve girişler 000 ya da 001 iken çıkış 0’dır. Tetikleme kuralı uygulamadan önce doğru tablo:

 

Tablo 4.2.1 Tetikleme kuralından önceki durum

X1 

0 

0 

0 

0 

1 

1 

1 

1 

X2 

0 

0 

1 

1

0 

0 

1 

1 

X3 

0 

1 

0 

1 

0 

1 

0 

1 

ÇIKIŞ 

0 

0 

0/1 

0/1 

0/1 

1 

0/1 

1 

 

 

Tetikleme kuralı uygulandıktan sonra 010 örgüsünü alalım: Bu 000 ‘dan 1 eleman ; 001’den 2 eleman ; 101’den 3 eleman ve 111’den 2 eleman farklıdır. Bu sonuçla 0 ve 1 taught set kuralına göre:

 

Tablo 4.2.2 Tetikleme kuralından sonraki durum

X1 

0 

0 

0 

0 

1 

1 

1 

1 

X2 

0 

0 

1 

1 

0 

0 

1 

1 

X3 

0 

1 

0 

1 

0 

1 

0 

1 

ÇIKIŞ 

0 

0 

0 

0/1 

0/1 

1 

1 

1 

 

İki tablo arasındaki farka sinir geneli olarak adlandırılır ve bu yüzden tetikleme kuralı sinire anlam verir eğitim boyunca örgüye cevap verir.

 

4.3 ÖRGÜ TANIMA-ÖRNEK

Yapay Sinir Ağlarının en önemli uygulaması örgü tanımadır. Örgü tanıma o doğrulukta eğitilmiş olan ön beslemeli bir sinir ağ kullanılarak tamamlanmış olabilir. Eğitim boyunca ağ, giriş örnekleriyle çıkışları birleştirmek için eğitilir. Ağ kullanıldığı zaman, birleşmeli çıkış örgü çıkışı için deneme ve giriş örgüsüne aittir. Birleştirilmiş çıkışı olmayan örgü, bir giriş olarak verildiği zaman, yapay sinir ağlarının gücü hayata geçmiştir. Bu durumda,ağ verilen örgüden en az farklı olan giriş örgüsünü düşünmeye uygun çıkışı verir.


                Şekil 4.3 Giriş çıkış gösterimi

 

ÖRNEK: Şekil 4.3’de ağ T ve H örgülerini tanımak için eğitilmiştir. Aşağıda gösterildiği gibi birleşik örgülerin hepsi siyah ve hepsi beyazdır.

 

Eğer siyah kareleri 0, beyazları da 1 ile gösterirsek 3 sinir için doğru tablo:    

                Tablo 4.3.1 Üst sinir                    

X1 

0 

0 

0 

0 

1 

1 

1 

1 

X2 

0 

0 

1 

1 

0 

0 

1 

1 

X3 

0 

1 

0 

1 

0 

1 

0 

1 

ÇIKIŞ 

0 

0 

1 

1 

0 

0 

1 

1 

 

 

            Tablo 4.3.2 Orta sinir

X1 

0 

0 

0 

0 

1 

1 

1 

1 

X2 

0 

0 

1 

1 

0 

0 

1 

1 

X3 

0 

1 

0 

1 

0 

1 

0 

1 

ÇIKIŞ 

1 

0/1 

1 

0/1 

0/1 

0 

0/1 

0 

 

Tablo 4.3.3 Alt sinir

X1 

0 

0 

0 

0 

1 

1 

1 

1 

X2 

0 

0 

1 

1 

0 

0 

1 

1 

X3 

0 

1 

0 

1 

0 

1 

0 

1 

ÇIKIŞ 

1 

0 

1 

1 

0 

0 

1 

0 

 

Tablodan gördüğümüz gibi:

 

Bu durumda giriş örgüsü hemen hemen ‘T’ örgüsünün aynısı olduğundan,çıkış hepsi siyah olmalıdır.

 

Burada, giriş ‘H’ örgüsünün aynısı olduğundan; çıkışın hepsi beyazdır.


 

Burada üst satır T’den 2, H’den 3 farklıdır. Bu yüzden cıkış siyahtır. Orta satır ise T ve H ikisinden de 1 farklıdır. Bu nedenle çıkış rasgeledir. Alt satırda ise T’den 1 ve H’den 2 farklıdır. Çıkış ise siyahtır. Ağın toplam çıkışı hala T şeklinin desteğindedir.

 

 

4.4 KARMAŞIK SİNİR

Önceki sinir geleneksel bilgisayarların zaten yapmadığı hiçbir şeyi yapmaz. Bir karmaşık sinir (şekil ?) McCulloch ve Pits modelidir (MCP). Bir önceki modelden farkı; girişlerin ağırlaştırılmasıdır. Her girişteki karar verme etkisi özellikle girişin ağırlığına bağlıdır. Bir girişin ağırlığı, ağırlaştırılmış girişle çarpıldığındaki numaradır. Bu ağırlaştırılmış girişler, ikisi birlikte eklenmiştir ve eğer onlar önceden kurulmuş eşik değerini aştıysa, sinirle tetiklenir. Herhangi bir diğer deyişle, sinirler tetiklenmez.

Matematiksel terimlerde, sinirler ancak ve ancak:

X1W2+X2W2+X3W3+…….>T ise tetiklenir.

Eşik ve giriş vektörleri bu siniri, çok esnek ve güçlü yapar. MCP sinir, ağırlıklarını ve/veya eşiğini değiştirme yoluyla kısmi durumlara adapte olabilme yeteneğine sahiptir.


 

 

Şekil ? Bir MPC sinir

 

 

 

BÖLÜM 5

YAPAY SİNİR AĞI MİMARİSİ

5.1 AĞ KATMANLARI

Yapay sinir ağının en ortak tipi 3 gruba ,katman ya da birime, dayanır. ” Giriş “, “Gizli”, “Çıkış” biriminin katmanına bağlanmıştır.

  • Giriş biriminin aktivitesi, ağda beslenen ham bilgiyi temsil eder.
  • Her gizli ünitenin aktivitesi, giriş ve gizli üniteler arasındaki bağlantılar üzerindeki ağırlıklar ve giriş ünitelerinin aktiviteleri tarafından belirlenir.
  • Çıkış ünitelerinin davranışı gizli ünitelerin aktivitesine ve gizli ünitelerle çıkış üniteleri arasındaki ağırlığa dayanır.

 

5.2 TEK KATMANLI AĞLAR

Bir tek katmanlı yapay sinir ağı, bir katmanda organize edilmiş birim gruplarından meydana gelir. Her Ui ünitesi Wij ile Xj girişini alır. Şekil -? m girişli ve n çıkışlı bir tek katmanlı lineer modeli gösterir.

 

Şekil 5.2 Bir tek Kanallı Lineer Ağ

 

 

 

X=(X1,X2,X3,……X) giriş vektörü olsun. Aktivasyon fonksiyonu ¦ basitçe olsun. Aktivasyon enerjisi sadece birimin net toplamıdır. m´n matrisi:

W=

Bu sonuçla U birimindeki yt çıkışı :

Yt=,

V çıkış vektörü:


yn´t=

çıkış vektörü:

            y = (y1,y2….yn)T

                y = (WT´X)

şeklinde gösterilir.

 

 

5.3 BİLGİ KURALLARI

Bir basit lineer ağ çıkış vektörlerinin birleştirilmiş olabilir. Örneğin (x1,x2) giriş vektör gruplarını göz önüne alalım. Her xi‘nin 0 ya da 1 olduğu yerde. Basit lineer ağ tablo 4.3.1 ‘de gösterildiği gibi çıkışlar üretebilir. Girişlerin XOR boolean olduğu çıkış için Xor fonksiyonu tanımlama, diğer çok karmaşıklaştırılmış problemlerin alt problemleri olmasına karşın, yapay sinir ağlarında klasik bir problemdir.

 

 

 

Tablo-1 Boolean XOR fonksiyon yerine getiren sinir etkileri için giriş ve çıkış


Bu nedenle ağ topolojisine ek olarak, pek çok sinir ağının önemli parçası bilgi kuralıdır. Bir bilgi kuralı ağa, benzer çıkış vektörleriyle verilen giriş vektörlerini birleştirme sırasında bağlantı ağırlıklarını ayarlama izni verir. Eğitim peryodu boyunca, giriş vektörleri tanıtıldı ve ağırlıklar istenen birlikler öğrenilene kadar bilgi kuralına göre ayarlandı. (Y=WT*X olana kadar). Yapay sinir ağlarının pek çok cazip özelliklerinden birisi öğrenme yeteneğidir.

 

Bir tek katmanlı model, genellikle Hebb kuralı ya da Delta kuralı kullanır. Hebb kuralında ağırlıktaki dij değişimi şöyle hesaplanır. X = (X1,X2….Xm) ve Y=(Y1,Y2,…..Yn)T birleştirmek istediğimiz çıkış ve giriş vektörleri olsun. Her eğitim iterasyonunda ağırlıklar dij=e*xi*yj tarafından ayarlanır. e’nin bilgi oranı olarak adlandırılan bir sabit olduğu yerde gösterilen eğitim vektörlerinin numaraları karşılıklı alınmış olabilir. Eğitim peryodu süresince, böyle iterasyonların numaraları yapılmış olabilir. Hebb kuralı kullanan bir ağ (matematiksel kanıt ile ) giriş vektör gruplarının ortogonal olduğu birlikleri öğrenme yeteneği için tekrarlamalıdır. Hebb kuralının dezavantajı şudur: Eğer giriş vektörleri karşılıklı ortogonal değilse, müdahale edilebilir ve ağ birlikleri öğrenme yeteneği olmayabilir.

Delta kuralı, Hebb kuralının eksiklikleri için geliştirilmişti. Delta kuralı altında ağırlıktaki değişme:

            dWij = r*xi*(tj– yj)’dir.

r: bilgi kuralı, tj:hedef çıkışı, yi:Uj ünitesindeki gerçek çıkış.

Delta kuralı,hedef çıkış ve gerçek çıkış arasındaki fark, hatayı minimumlaştıran bir yoldaki ağırlık vektörünü değiştirir.

 

5.4 EŞİK AĞLARI

Yapay sinir ağlarındaki ilk çalışmalar algılamayı içeriyordu. Rosenblat tarafından kurulan bir algılama T’nin bazı sabitler olduğu :

¦(s)={¦(s)    ,eğer S>T }

{0    ,diğer durumlarda }

verilen aktivasyon enerjisiyle bir tek katmanlı ağdır.

Bir eşik fonksiyonu kullandığı için, ağ da eşik ağ olarak adlandırıldı.Bir nonlineer fonksiyon kullansa bile, algılama hala XOR fonksiyonunu tamamlayamadı. Diğer bir deyişle, 0 çıkışıyla yanıtlama ve (1,0) ya da (0,1) giriş vektörleriyle tanıtılmış 1 çıkışla yanıtlama yeteneğidir.

Tablo 5.4.1 Girişler,net toplam ve boolean XOR fonksiyonu yerine getiren algılama için çıkış sistemi

Şekil 5.4.1 W11X1 + W21X2=T grafiği

Şekil 5.4.1’de gösterildiği gibi çizgi W11X1 + W21X2=T eşitliğiyle iki düzleme ayrılmıştır. Giriş vektörleri diğer taraftaki T uzantısından daha az net toplam iken, hattın bir tarafındaki T uzantısından daha büyük net toplam S üretir. XOR fonksiyonu göstermede ağ için girişler (1,1) ve (0,0) (W1+W2) toplamlarıyla 0 bir tarafta çıkış üretmek zorundadır. Ama W1>T ve W1+W2> T için . Bu yüzden algılayıcı XOR fonksiyonunu gösteremez.

 

Aslında burada sabit ağırlıklarla bir tek katmanlı ağ tarafından gösterilemeyen pek çok diğer fonksiyonlar vardır. Böyle sınırlamalar genelde yapay sinir ağları içinde ve algılayıcılarda ilginin geçici gerilemesinin sebebi oluyorken, algılayıcı yapay sinir ağlarında sonraki işin pek çoğu için temeller yayar. Tek katmanlı ağların sınırlamaları, aslında, daha katman eklemeyle üstesinden gelinebilir.

 

5.5 ÇOK KATMANLI AĞLAR

Bir çok katmanlı ağ, 2 ya da daha fazla birim katmanına sahiptir. Giriş olarak bir katman servisinden bir diğerine çıkış ile harici çıkış bağlantıları olmayan katmanlar saklı katmanlar olarak açıklanırlar.


Şekil 5.5 Bir çok katmanlı ağ

 

Bununla birlikte lineer aktivasyon fonksiyonuna sahip sabit ağırlıklarıyla, herhangi bir çok katmanlı sistem; bir tek katmanlı lineer sisteme eşittir. Örneğin iki katmanlı bir lineersistemin durumunu ele alalım. İlk katman için giriş vektörü X, ilk katmanın Y=W2*X çıkış 2. katman için giriş olarak verilmiştir ve 2. katman Z = W2*Y çıkışı üretmiştir. Bu nedenle :

Z=W2*(W1+X)=(W2*W1)*X

 

Sonuç olarak; bir çok katmanlı sistem W=W2*W1 ağırlık matrisiyle bir tek katmanlı ağa eşittir. Tümevarım ile bir n katmanlı sistem ağırlık matrisi n orta ağırlıktaki matrisin ürünü olan bir tek katmanlı lineer sisteme eşittir.

 

Başka bir deyişle, bir çok katmanlı sistem (lineer olmayan), bir tek katmanlı sistemden daha çok hesaplanabilme yeteneği sağlayabilir. Örneğin algılayıcı tarafından karşılaşılan problemler, saklı katmanların eklenmesiyle üstesinden gelinebilir. Çok katmanlı ağların çok güçlü olduğu kanıtlanmıştır. Aslında herhangi bir boolean fonksiyonu böyle bir ağ tarafından yerine getirilebilir.

 

5.6 BİLGİ İLE ÇOK KATMANLI AĞLAR

Bilgi algoritması, Rumelhart, Hinton ve Williams geri yayılım algoritmasını ortaya çıkarana, aynı zamanda genelleştirilmiş Delta kuralı olarak açıklanana kadar [1988], çok katmanlı ağ için kullanışlı değildi. Çıkış katmanında, çıkış vektörü beklenen çıkışa karşılaştırılır. Eğer fark sıfır ise bağlantıların ağırlığı için hiçbir değişiklik yapılamaz. Eğer fark sıfırdan farklı ise, hata Delta kuralıyla hesaplanır ve ağ yoluyla geri yayılır. Bu fikir, delta kuralının benzeri , gerçek çıkış ve harici çıkış arasındaki farkı minimize etmek için ağırlıkları ayarlamaktır. Böyle ağlar, diferansiyellenebilir aktivasyon fonksiyonları kullanımıyla rasgele seçilmiş birlikleri öğrenebilir. Geri yayılımın teoriksel McClelland ve Rumelhart tarafından bulunmuştu.

 

Geri yayılımın bir sorunu onun bilgi oranının yavaşlığı, gerçek zaman kullanımı için idealden az yapmaktır. Bazı dezavantajlara rağmen, geri yayılım her tarafa kullanılan algoritma olmuştur, özellikle de tanıma problemlerinde.

 

Bütün modeller kontrol edilmiş bilgi kullanmadan uzak tartışıldı. Ağ doğru cevaba alışkın ve harici çıkış sağlanmıştır. Diğer yapay sinir ağları modelleri kontrol edilmemiş bilgi tasarılarını kullanır. Ağ, düzenli dedektör gibi davranır ve örneklerin içindeki yapıyı keşfetmeye çalışır. Böylece ağlar, rekabetçi bilgi içerir.

 

5.7 İLERİ GERİ BESLEMELİ AĞLAR

İleri-Geri YSA (Yapay Sinir Ağları) (şekil?) girişten çıkışa sadece bir yolla sinyal geçişine izin verir. Burada hiç geri besleme herhangi bir katmanın çıkışı, aynı katmanda etki göstermez. Geri besleme YSA’lar çıkışlar ile girişleri birleştiren düz ileri ağlar olma eğilimi gösterir.

 

5.8 GERİ BESLEMELİ AĞLAR

Geri beslemeli ağlar (şekil-?), ağ içinde tanıtma döngüleriyle iki yönde de dolaşabilen sinyallere sahiptir. Geri beslemeli ağlar çok güçlüdür ve son derece karmaşık olabilirler. Geri beslemeli ağlar dinamiktir; onların durumu denge noktasına erene kadar sürekli olarak değişir. Yeni bir denge bulunmaya ihtiyaç olduğunda ve girişler değişene kadar denge noktasında kalır. Geri besleme mimarileri tek katmanlı organizasyonlarda geri besleme bağlantıları anlamında kullanılmasına rağmen ayrıca etkileşimli ya da yinelenen olarak açıklanırlar.

 

 


        Şekil 5.8 Bir basit ileri besleme ağ örneği


Şekil 5.8.2 Karmaşık ileri besleme ağ örneği

 

 

 

 

5.9 ALGILAYICILAR

 

Yapay sinir ağlarındaki güçlü çalışmalar, 1960’larda perceptrons (algılayıcılar), adı altında başlamıştır. Algılayıcılar (şekil-?), ön işlemler, sabit ve bazı eklerle MCP Modele (ağırlaştırılmış girişlerle sinir) dönüşmüştür. A1,A2,Ai,Aj olarak etiketlenen birimler,

birlik birimleri olarak adlandırılmış ve görevleri giriş izlenimlerinden belirleyici özelliği yerleştirmek, kendine özgü eldelerdir. Algılayıcılar , memeli görsel sistemi arkasındaki temel fikri taklit eder. Bunlar çoğunlukla yeteneklerin süresi daha da çok uzatılmış olsa bile örgü tanımada kullanılırlar.


Şekil 5.9 Algılayıcılar

 

1969’da Minsky ve Papert, tek katmanlı algılaycılar sınırlamalarının tanımlandığı bir kitap yazdılar. Kitabın etkisi çok büyüktü ve pek çok yapay sinir ağı araştırmacısının ilgilerini kaybetmesine sebeb oldu. Bu kitap çok iyi yazılmıştı, matematiksel gösterilmişti

Tek katmanlı algılayıcılar, biçimin denkliğini belirlemek ve biçimin bağlanıp bağlanmadığını belirlemek gibi temel örgü tanıma operasyonlarını yapamadı.onların 80’lere kadar yapmadığı uygun eğitim verilmesiydi, çok seviyeli algılayıcılar bu operasyonları yapabildiler.

 

BÖLÜM 6

BİLGİ İŞLEME

6.1 TRANSFER FONKSİYONU

Bir YSA’nın davranışı birimlere özgü giriş-çıkış fonksiyonu (transfer fonksiyonu) ve ağırlıkların her ikisine de dayanır. Bu fonksiyon tipi 3 kategoride azalır.

  • lineer
  • eşik, başlangıç
  • sigmoid
  1. Lineer üniteler için çıkış aktivitesi toplam ağırlaştırılmış çıkışla orantılıdır.
  2. Eşik üniteler için çıkış 2 seviyeden birinin eğilimidir. Toplam girişin bazısı eşik değerlerden büyük ya da küçük olup olmadığına bağlıdır.
  3. Sigmoid üniteler için çıkış değerleri sürekli olarak;ama girişte liner olmayarak değişir. Sigmoid üniteler, reel sinirlere eşik birimleri ya da lineer yapmadan daha büyük benzerlik taşır. Ama üçü de kabataslak tahminleri göz önünde bulundurmak zorundadır.

Bazı özgün görevler yapan bir sinir ağı yapmak için, ünitelerin bir diğerine nasıl bağlandığını seçmek zorundayız. Bağlantılar bir ünite için etkinin diğerine mümkün olup olmadığına karar verir. Ağırlıklar etkinin gücünü açıkça belirtmektedir.

Aşağıdaki prosedürlerin kullanımıyla bir özel görev yapmak için 3 katmanlı ağı öğretmeliyiz.

  1. Ağı eğitim örnekleriyle kanıtlamalıyız.
  2. Ağın gerçek çıkışının, istenen çıkışı nasıl seçeceğine karar vermeliyiz.
  3. Her bağlantının ağırlığını değiştiririz.; çünkü ağ istenen çıkışın daha iyi bir tahminini üretir.

 

6.2 PROSEDÜR ÖĞRETME ÜZERİNE ÖRNEKLERLE AÇIKLAMA

El yazımı dijitleri tanımak için bir ağı istediğimizi varsayalım. Mürekkebin hazır bulunan ya da bulunmayan her ağ ,256 giriş birimine ; 10 çıkış birimine ve gizli ünitelerin numaralarına ihtiyaç duyar.

 

Ağ algılayıcılar tarafından kaydedilen her dijit için uygun çıkış biriminde yüksek aktivite ve diğer çıkış birimlerinde alçak aktivite üretmelidir.Ağ eğitimi için, bir dijit imgesini tanıtmalıyız ve istenen aktiviteyle 10 çıkış ünitesinin gerçek aktivitesini karşılaştırmalıyız, sonra istenilen aktiviteyle gerçek aktivite arasındaki farkın karesi olarak tanımlanan hata hesabı yapmalıyız.

Daha sonra hatayı azaltmak için her bağlantının ağırlığını değiştirmeliyiz. Bu eğitim işlemini, ağ her imgeyi doğru olarak sınıflandırana kadar, her çeşit dijitin her farklı imgesinin pek çok farklı imgesi için tekrarlamalıyız.

Bu prosedürü yerine getirmek için, ağırlığı değiştirilmiş olarak hata değişimindeki oranla orantılı miktar ile ağırlık değiştirme sırasındaki ağırlık için, hata türevi(EW) hesaplamaya ihtiyacımız var. EW hesabı için bir yol, bir ağırlığı hafifçe bozmak ve hatanın nasıl değiştiğini gözlemektir. Ancak bu metod etkili değildir; çünkü pekçok ağırlığın herbiri için bir ayrık karışıklık ister. EW hesaplamak için bir diğer yol açağıda tanımlanmış olan Geri Yayılım Algoritması kullanmaktır ve şimdilerde bir yapay sinir ağı eğitiminde çok önemli bir araç olmaktadır. Bu iki takım tarafından geliştirilmiştir. Birisi Fransa’da Fogelman-Soulie, Gallinari ve Le Cun; diğerleri U.S.A’da Rumelhart, Hinton ve Williams ‘tır.

    

6.3 GERİ YAYILIM ALGORİTMASI

Eğitim sırasında bir ağ, bazı görevler yapar. Azaltılmış gerçek çıkış ve istenen çıkış arasındaki hata yolu içinde her ünitenin ağırlıklarını ayarlamak zorundayız. Bu işlem (EW ) ağın ağırlığının hata türevini hesaplamasını ister. Başka bir deyişle her ağırlığın yavaşça azaltılması ya da arttırılması gibi hatanın nasıl değiştiğini hesaplamak zorundadır. Bir geri yayılım algoritması, EW’yi belirlemek için her tarafta çok kullanılan bir metottur.

 

Bir geri yayılım algoritması, eğer ağdaki bütün birimler lineer ise anlaması çok kolaydır. Algoritma her EW’yi ilk hesaplama EA yoluyla hesaplar. Çıkış birimleri için EA basitçe istenen çıkış ve gerçek çıkış arasındaki farktır. Katmandaki gizli birimler için EA hesabında ilk olarak gizli birim ve çıkış birimleri arasındaki bütün ağırlıkları tanımlamalıyız. Sonra çıkış birimlerinin EA’ları yoluyla ağırlıkları çarparız ve sonuca ekleriz. Bu toplam, seçilmiş seçilmiş birimlerin EA’sına eşittir. Gizli katmandaki bütün EA’lar hesaplandıktan sonra diğer katmanlar için EA’lar gibi davranışında hesaplama yapabiliriz. Geri yayılım algoritmasını veren şey onun ismidir.

Bir kere EA birim için hesaplanmıştır, birimin her yeni başlayan bağlantısı için EV hesabı düzenli ileridir. EW, EA’nın sonucudur ve aktivite yeni başlayan bağlantıya doğrudur. Nonlineer birimler için şunu not edelim, geri yayılım algoritması bir ekstra adım içerir. Geri yayılımdan önce EA, EI içinde dönüştürülmüşolmak zorundadır.

 

6.4 GERİ YAYILIM ALGORİTMASINA MATEMATİKSEL YAKLAŞIM

Birimler, bir diğerine bağlanırlar. Bağlantılar öncelikli yönlendirilmiş grafiğin kenarlarına uymaktadır. Burada her bağlantı ile birleştirilmiş bir gerçek numara vardır ki bu bağlantının ağırlığı olarak adlandırılır. Ui biriminden Uij birimine bağlantının ağırlığını Wij ile gösteririz. Bu, elemanları Wij ağırlığı olan bir W ağırlık matrisiyle ağa bağlanabilirlik örneği göstermeye uygundur. Genellikle bağlantının 2 tipi ünlüdür: Yavaşlatan ve uyaran. Bir negatif ağırlık, bir uyaran bağlantıyı gösterirken, bir pozitif ağırlık bir yavaşlatan bağlantıyı gösterir. Bağlantı örneği ağın mimarisini nitelendirir.

 

Şekil 6.4 Ağ mimarisinin karakteristik bağlantı örgüsü

 

Çıkış katmanındaki ünite,aktivitesine aşağıdaki iki prosedür adımı yoluyla karar verir.

  • İlk olarak aşağıdaki formülü kullanarak, Xi ağırlaştırılmış giriş toplamını hesaplar:

yi:ilk katmandaki jth biriminin aktivite seviyesi, Wij: ith ve jth arasındaki bağlantı ağırlığı

  • Sonra, birim ağırlaştırılmış giriş toplamının bazı fonksiyonlarını kullanarak yi aktivitesini hesaplar. Tipik olarak sigmoid fonksiyonunu şöyle kullanırız:

     

    Ağ E hatasını hesaplar. İfade yoluyla tanımlanmıştır

 

 

Yi:üst katmandaki jth nin aktivite seviyesi,     dİ: jth biriminin istenen çıkışı

Geri yayılım algoritması 4 adım içerir:

  1. Hatanın nasıl hızlı değiştiğini değiştirilmiş bir çıkış biriminin aktivitesi olarak hesaplar. Bu hata türevi(EA), gerçek ve istenen aktivite arasındaki farktır.
  1. Hatanın nasıl hızlı değiştiğini, değiştirilmiş bir çıkış birimi yoluyla alınan toplam çıkış olarak hesaplar. Bu nicelik (EI), değiştirilmiş toplam çıkışları olarak birimlerin çıkışındaki oran yoluyla bölünmesi adım 1’e cevaptır:

 

  1. Hatanın nasıl hızla değiştiğini, değiştirilmiş bir çıkış birimi içindeki bağlantıdaki ağırlık olarak hesaplar. Bu nicelik(EW), meydana gelen hangi bağlantıdan birimin aktivite seviyesi yoluyla çarpılan adım 2’ye cevaptır.

 

  1. Hatanın nasıl hızda değiştiğini değiştirilmiş önceki katmandaki birimin aktivitesi olarak hesaplar. Bu önemli adım çok katmanlı ağa uygulanmış olmak için geri yayılıma izin verir. Önceki katmandaki birimin aktivitesi değiştiğinde, bağlandığı çıkış birimlerinin hepsine etki eder. Bu yüzden hata üzerindeki bütün etkiyi hesaplamak için, birimlerin çıkışındaki bütün bu ayrı etkilerin hepsini ekleriz. Ancak her etki hesaplamak için kolaydır. Bu, çıkış birimi için bağlantı üzerindeki ağırlık yoluyla çarpılan adım 2’deki cevaptır.


 

Adım 2 ve adım 4, kullanma yoluyla, birimlerin bir katmanının EA’sını bir önceki katman için EA’ların içine dönüştürebiliriz. Bir kere birimin EA’sını bilmeliyiz. Gelen bağlantılar üzerinde EW’leri hesaplamak için adım 2 ve 3’ü kullanırız.

 

 

BÖLÜM 7

YAPAY SİNİR AĞI UYGULAMALARI

7.1 UYGULAMALAR

Yapay sinir ağları robotik kontrol,tıbbi hastalıklar, tanısal problemler, örgü tanımı içeren farklı alanların geniş çeşitliliğine uygulanmıştı.Yapay sinir ağları özellikle geleneksel yapay zeka tekniklerinin içerdiği sembolik metotların bozulduğu yada etkisizlik sağladığı yerde problem çözmede yarar göstermiştir. Böyle ağlar örgü tanımı kategorisi altına düşen pek çok diğer problemler ve konuşma tanıma, hayal içerme, hesaplama yoğunluğu olan düşük seviyeli görevler içeren problemlerde belirtisini göstermiştir. YSA’ların güçlü paralelliği bu problemler için ihtiyaç duyulan güç hesabını sağlayabilir. YSA’ların daha büyük kusuru, özellikle birkaç katman kullanıldığında, istedikleri uzun eğitim zamanında yatmaktadır. Donanım avantajları bu sınırlamaları azaltmalıdır ve YSA temelli sistemler geleneksel bilgi sistemlerine daha büyük tamamlayıcı olacaktır.

 

7.2 YAZILIM VE DONANIM UYGULAMALARI

Tanımlanan ağların birisinin simulasyonu için program yazmaya oranla daha kolaydır ve bir ticari peket programın numarası kullanışlıdır. Pek çok program çeşitli farklı sinirsel tiplerle desteklenen bir yapay sinir ağı geliştirme sistemine yer verir; eğitme ve yapı için kullanıcıya izin verir ve farklı uygulamalar için ağı test eder. Reid ve Zeichick 50 ticari yapay sinir ağı ürününün tanımını sağladı. Satıcıların adresleri ve fiyat koyma bilgisi gibi.

 

Yazılım simülasyonunun içinden yapay sinir ağı eğitimi, yoğun matematiksel hesaplama gerektirir. Sık sık sıradan, genel amaçlı mikroişlemcilerde aşırı eğitim zaamanlarına yol gösterme. Bir YSA hızlandırıcı tahta –neurashell paket desteğiyle geliştirilmiş, neuroboard gibi.- yüksek hızda performans sağlayabilir.Diğer seçenek, yazılımda yapay sinir ağlarını tamamlayan mikroçiptir; analog ve digital iki alette kullanılabilir. Carver Mead, bir yol gösteren araştırmacı, analoga yapay sinir ağları çiplerindeki, bir yapay ağ katman geliştirilmiştir.

 

7.3 PRATİKTE YAPAY SİNİR AĞLARI

Yapay sinir ağının verilen bu tanımı ve nasıl çalıştığı, gerçek dünya uygulamaları için uydun mu? Yapay sinir ağı, gerçek dünya iş problemlerine sınırsız olarak uygulanabilir. Aslında, pek çok endüstride zaten başarılı olarak uygulanmıştır.

Yapay sinir ağları veride eğilimler ya da örgü tanımlamada iyi olduğundan beri, onlar aşağıdaki ihtiyaçları tahmin etmek ve önceden haber vermek için çok uygundur:

  • Satış tahminleri
  • Endüstriyel işlem kontrolü
  • Müşteri araştırmaları
  • Veri onaylama
  • Risk yöneticiliği
  • Hedef pazarlama

YSA ayrıca haberleşmede hoparlörün tanımlanması, hepatit tanısı, hatalı yazılımdan haberleşmenin düzelmesi, çok anlamlı Çince kelimelerin tefsiri, sualtı mayın bulma, dokuma analizi, üç boyutlu obje tanımlama, el yazısı kelime tanımı, yüzey ilişki tanımada kullanıldı.

 

7.4 TIPTA YAPAY SİNİR AĞLARI

Yapay sinir ağları halen sıcak bir araştırma alanındadır. Önümüzdeki birkaç yılda biyomedikal sistemler için çok geniş uygulamalara maruz kalacağı sanılıyor. Şu anda araştırma çoğunlukla çeşitli taramalardan hastalık tanıma (kardiogram,CAT tarama, ultrasonik taramalar vb.) ve insan vücudunun parçalarını modelleme üzerinedir.

Yapay sinir ağları hastalık tanımının nasıl olduğu üzerine özel algoritma sağlamaya ihtiyaç olmadığından beri, hastalık tanımada idealdir.

 

7.5 İŞTE SİNİR AĞLARI

İş muhasebe yada finansal analiz gibi çeşitli genel uzmanlık alanları ile oyalanmıştır. Hemen hemen herhangi yapay sinir ağı uygulaması bir iş alanı yada finansal analizi içinde uygun olacaktı.

Burada bazı tasarlama ve tahsis kaynağı içerme, iş amçları için yapay sinir ağı kullanma potansiyeli vardır. Bu alan içinde finanse edilmiş pek çok iş tescilli olarak sınflandırılmıştır. Bu sonuçla süregelen işin tüm uzunluğunda bilgi imkansızdır. Optimizasyon ve tasarlama için Hopfield-Tank ağı gibi pek çok iş yapay sinir ağlarına uygulanır.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

BÖLÜM 8

MATLAB 5.0 ‘DA SİNÜS MODELLEMESİ

    Ağ giriş değerleri P giriş matrisinde saklıdır ve 0-360 arasında değişir.

% Birinci katman 4 TANSIG işlem birimine, ikinci katman bir PURELIN işlem birimine sahiptir.

 

P =linspace(0,360,20);     %0-360 arası giriş açı değerleri üretir

    T = sin(P*pi/180);             %üretilen değerlere karşılık gerçek açı değerleri

 

net = newff([minmax(P)],[3 1],{‘tansig’
‘purelin’});

 

    %     Bu bölümde ağ eğitilerek ağın çıkışları ile T çıkışların grafiği çizilmiştir.

 

    ep=input(‘EPOCH sayısını giriniz 250 epoch 3 neuron ile maksimum performans’);

     net.trainParam.epochs = ep;

     net = train(net,P,T);

Y = sim(net,P);

figure(2)

plot(P,T,P,Y,‘bd’) % Eğitim sonucu ağ çıkışı ile T çıkışın grafiği

kareselhata=sqrt(power((abs(T-Y)),2))

figure(3);

text(10,10,‘karesel hata’)

plot(kareselhata);

text(10,10,‘karesel hata’)

mse(T-Y)

 

TEST=linspace(0,360,40); % 0-360 arası 40 tane test girişi üretiliyor

testsonuc=sim(net,TEST)

figure(4)

plot(TEST,testsonuc,‘b*’);

hold on;

plot(TEST,sin(TEST*pi/180),‘b’);

» sebnem

 

EPOCH sayısını giriniz 250 epoch 3 neuron ile maksimum performans10

TRAINLM, Epoch 0/10, MSE 0.229434/0, Gradient 306.104/1e-010

TRAINLM, Epoch 10/10, MSE 0.045734/0, Gradient 0.363777/1e-010

TRAINLM, Maximum epoch reached, performance goal was not met.

 

kareselhata =

 

Columns 1 through 7

 

0.0082 0.0193 0.0223 0.0102 0.0356 0.0472 0.0035

 

Columns 8 through 14

 

    0.0584 0.0589 0.0317 0.0929 0.0223 0.1279 0.2650

 

Columns 15 through 20

 

0.3299 0.2970 0.1627 0.0609 0.3507 0.6755

 

 

ans =

 

0.0457

 

 

testsonuc =

 

Columns 1 through 7

 

0.0082 0.1379 0.2965 0.4658 0.6217 0.7468 0.8362

 

Columns 8 through 14

 

0.8944 0.9289 0.9461 0.9503 0.9427 0.9221 0.8846

 

Columns 15 through 21

 

0.8239 0.7320 0.6018 0.4320 0.2322 0.0235 -0.1691

 

Columns 22 through 28

 

-0.3277 -0.4464 -0.5291 -0.5839 -0.6189 -0.6408 -0.6544

 

Columns 29 through 35

 

-0.6627 -0.6678 -0.6708 -0.6727 -0.6738 -0.6745 -0.6749

 

Columns 36 through 40

    
 

    -0.6752 -0.6753 -0.6754 -0.6755 -0.6755

 

 


 

 

 

 

 

 

Şekil 8.1 10 Epoah için birinci durum


 

 

 

 

 

Şekil 8.2: 10 Epoach için 2. durum


 

 

 

 

 

 

Şekil 8.3: 10 Epoach için 3. durum

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Şekil 8.4 : 10 Epoach için 4. durum

 

 

 

 

» sebnem

EPOCH sayısını giriniz 250 epoch 3 neuron ile maksimum performans220

TRAINLM, Epoch 0/220, MSE 0.749945/0, Gradient 102.081/1e-010

TRAINLM, Epoch 25/220, MSE 1.01126e-007/0, Gradient 0.216721/1e-010

TRAINLM, Epoch 50/220, MSE 2.70934e-008/0, Gradient 0.0275923/1e-010

TRAINLM, Epoch 75/220, MSE 1.38556e-008/0, Gradient 0.00809282/1e-010

TRAINLM, Epoch 100/220, MSE 9.45304e-009/0, Gradient 0.00317631/1e-010

TRAINLM, Epoch 125/220, MSE 6.46075e-009/0, Gradient 0.0458456/1e-010

TRAINLM, Epoch 149/220, MSE 5.76737e-009/0, Gradient 2.93103e-012/1e-010

TRAINLM, Minimum gradient reached, performance goal was not met.

 

kareselhata =

 

1.0e-003 *

 

Columns 1 through 7

 

0.0270 0.1059 0.1339 0.0049 0.1031 0.0003 0.0898

 

Columns 8 through 14

 

0.0254 0.0751 0.0529 0.0529 0.0751 0.0254 0.0898

 

Columns 15 through 20

 

0.0003 0.1031 0.0049 0.1339 0.1059 0.0270

 

ans =

 

5.7674e-009

testsonuc =

 

Columns 1 through 7

 

-0.0000 0.1607 0.3168 0.4647 0.6006 0.7211 0.8230

 

Columns 8 through 14

 

0.9035 0.9606 0.9928 0.9992 0.9797 0.9349 0.8659

 

Columns 15 through 21

 

0.7746 0.6631 0.5345 0.3921 0.2394 0.0805 -0.0805

 

Columns 22 through 28

 

-0.2394 -0.3921 -0.5345 -0.6631 -0.7746 -0.8659 -0.9349

 

Columns 29 through 35

 

-0.9797 -0.9992 -0.9928 -0.9606 -0.9035 -0.8230 -0.7211

 

Columns 36 through 40

 

-0.6006 -0.4647 -0.3168 -0.1607 0.0000

 

 


 

 

 

 

 

Şekil 8.5: 220 Epoach için en son (4.) durum

 

 

 

 

 

BÖLÜM 9

SONUÇLAR

Hesaplama dünyası yapay sinir ağlarından pek çok kazanç sağlamıştır. Örnek yoluyla öğrenme yeteneği onları çok güçlü ve esnek yapmıştır. Ayrıca burada özel bir görev performansı sırasında bir algoritma planına ihtiyaç yoktur. Burada görevlerin dahili mekanizmalarını anlamaya ihtiyaç
yoktur. Ayrıca bunlar gerçek zaman sistemi için çok uygundur çünkü onların paralel mimarisine doğru hesaplama zamanına hızlı cevap verilir.

 

Yapay sinir ağları ayrıca, nöroloji ve psikoloji gibi diğer araştırma alanlarına da katkıda bulunmaktadır. Düzenli olarak, beynin iç mekanizmalarını araştırma ve yaşayan organizmaların parça modelinde kullanıldı. Belki yapay sinir ağlarının çok heyecan verici görünüşü bazı gün sürekli ağ üretilebilmesine imkan verir.

Sonuç olarak yapay sinir ağlarının çok büyük potansiyele sahip olmasına rağmen, anlatılan konular, bulanık mantık, hesaplama ile bütünleştirildiği zaman sadece onların en iyisini elde edeceğiz.

 

 

 

Kaynaklar:

[1]: http://uhavax.hartford.edu/disk$userdata/faculty/compsci/www/neural-networks-tutorial.html

[2]: http://www-dse.doc.ic.ac.uk/~nd/surprise_96/journal/vol4/cs11/report.html

[3]: Adem Güneş & Köksal Yıldız ” Matlab for Windows “