TÜRKİYE CUMHURİYETİ ÇUKUROVA ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ EKONOMETRİ ANABİLİM DALI TEMEL BİLEŞENLER FAKTÖR ANALİZİNE DAYALI YAPAY SİNİR AĞLARI MODELLERİ İLE İMKB 100 ENDEKS GETİRİLERİNİN TAHMİNİ ZUHAT ERGİN YÜKSEK LİSANS TEZİ ADANA/2012 TÜRKİYE CUMHURİYETİ ÇUKUROVA ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ EKONOMETRİ ANABİLİM DALI TEMEL BİLEŞENLER FAKTÖR ANALİZİNE DAYALI YAPAY SİNİR AĞLARI MODELLERİ İLE İMKB 100 ENDEKS GETİRİLERİNİN TAHMİNİ ZUHAT ERGİN Danışman: Doç. Dr. Süleyman Bilgin KILIÇ YÜKSEK LİSANS TEZİ ADANA/2012 Çukurova Üniversitesi Sosyal Bilimler Enstitüsü Müdürlüğüne; Bu çalışma, jürimiz tarafından Ekonometri Anabilim Dalında YÜKSEK LİSANS TEZİ olarak kabul edilmiştir. Başkan: Doç. Dr. Süleyman Bilgin KILIÇ (Danışman) Üye: Doç. Dr. M. Fatih CİN Üye: Yrd. Doç. Dr. Ersin KIRAL ONAY Yukarıdaki imzaların, adı geçen öğretim elemanlarına ait olduklarını onaylıyorum. …./…./2012 Prof. Dr. Azmi YALÇIN Enstitü Müdürü NOT: Bu tezde kullanılan ve başka kaynaktan yapılan bildirişlerin, çizelge, şekil ve fotoğrafların kaynak gösterilmeden kullanımı, 5846 Sayılı Fikir ve Sanat Eserleri Kanunu’ndaki hükümlere tabidir. i ÖZET TEMEL BİLEŞENLER FAKTÖR ANALİZİNE DAYALI YAPAY SİNİR AĞLARI MODELLERİ İLE İMKB 100 ENDEKS GETİRİLERİNİN TAHMİNİ Zuhat ERGİN Yüksek Lisans Tezi, Ekonometri Anabilim Dalı Danışman: Doç. Dr. Süleyman Bilgin KILIÇ Temmuz 2012, 53 sayfa Bu çalışmada amaç, temel bileşen faktör analizine dayalı yapay sinir ağları modelleri ile İMKB 100 endeksinin getirisi tahmin edilmeye çalışılmıştır. Bu çalışmada 02.01.1997-30.12.2011 tarihleri arasındaki İMKB 100 endeksi günlük getirileri kullanılarak yarınki getiri tahmin edilmeye çalışılmıştır. Çalışma beş bölümden oluşmaktadır. Birinci bölümde çalışmanın amacı, önemi ve yöntemi hakkında bilgi verilmiştir. İkinci bölümde yapay sinir ağlarının yapısı, temel elemanları, avantajları, dezavantajları, uygulama alanları, katmanları, sınıflandırılması ve işleyişi hakkında bilgi verilmiştir. Üçüncü bölümde temel bileşen faktör analizinin aşamaları ile ilgili hesaplamalara yer verilmiştir. Dördüncü bölümde uygulamaya yer verilmiştir. Son bölümde ise uygulamada tahmin edilen modele ve bunun üzerine yapılan yorumlara yer verilmiştir. Anahtar Kelimeler: Yapay Sinir Ağı, Temel Bileşen Faktör Analizi, Getiri Tahmini ii ABSTRACT PREDICTION OF ISE 100 INDEX RETURNS BY ARTIFICIAL NEURAL NETWORK MODEL BASED ON PRINCIPAL COMPONENT FACTOR ANALYSIS Zuhat ERGİN Master Thesis, Department of Econometrics Supervisor: Doç. Dr. Süleyman Bilgin KILIÇ July 2012, 53 Pages In this study, ISE 100 index return is estimated by using Artificial Neural Network model based on the Principal Component Factor Analysis. The data covers the period of 02.01.1997-30.12.2011 and consist of the daily returns of ISE 100 index, Dollar and Gold prices. The study consists of five sections. In the first section, we describe the purpose of study, method and about the importance of study. In the second section, we describe the basic elements of Artificial Neural Network model. In the third section, we describe the Principal Component Factor Analysis. In the fourth section, application are given, and finally in the fifth section we give the empirical results of the study and conclusion. Keywords: Artificial Neural Networks, Principal Component Factor Analysis, Estimate Return iii ÖNSÖZ Bu tez çalışmasında beni yönlendiren, her türlü eksikliklerimi tamamlayan ve araştırmalarımda bana her zaman yol gösteren Danışman Hocam Doç. Dr. Süleyman Bilgin KILIÇ’a ve eğitim hayatım boyunca maddi ve manevi desteklerini esirgemeyen aileme ve dostlarıma sonsuz teşekkürlerimi ve saygılarımı sunarım. Zuhat ERGİN iv İÇİNDEKİLER Sayfa ÖZET……………………………………………………………………….…………....i ABSTRACT …………………………………………………………………………....ii ÖNSÖZ…………………………………………………………….…………………...iii KISALTMALAR LİSTESİ……………………………………….……………….....vii TABLOLAR LİSTESİ……………………………………….…….………………...viii ŞEKİLLER LİSTESİ………………………………………………………….….…...ix I. BÖLÜM GİRİŞ 1.1. Çalışmanın Amacı …………………………………………………………………..2 1.2. Çalışmanın Önemi ve Yöntemi……………………………………………………...2 1.3. Çalışmanın Sınırlılıkları……………………………………………………………..3 II. BÖLÜM YAPAY SİNİR AĞLARI 2.1. Biyolojik Sinir Hücresi………………………………………….…………….…….4 2.2. Yapay Sinir Hücresi…………………………………………………………….…...5 2.3. Yapay Sinir Ağlarının Temel Elemanları………………………….………………..6 2.3.1. Girdiler……………………………………………………………………..….6 2.3.2. Ağırlıklar……………………………………………………………………...6 2.3.3. Toplam Fonksiyonu…………………………………………………………...6 2.3.4. Aktivasyon Fonksiyonu………………………………………………….…....8 2.3.5. Hücrenin Çıktısı……………………………………………………………...13 2.4. Yapay Sinir Ağlarının Avantajları ve Dezavantajları……………………………...14 2.4.1. Yapay Sinir Ağlarının Avantajları…………………………………………...14 2.4.2. . Yapay Sinir Ağlarının Dezavantajları……………………………………...16 2.5. Yapay Sinir Ağlarının Uygulama Alanları………………………………………...16 2.6. Yapay Sinir Ağlarının Katmanları……………………………………….………...18 v 2.6.1. Girdi Katmanı…………………………………………………………….….18 2.6.2. Gizli Katman………………………………………………………………....18 2.6.3. Çıktı Katmanı………………………………………………………………..18 2.7. Yapay Sinir Ağlarının Sınıflandırılması…………………………………………...19 2.7.1. İleri Beslemeli Yapay Sinir Ağı……………………………………………..19 2.7.2. Geri Beslemeli Yapay Sinir Ağı…………………………………………......20 2.8. Yapay Sinir Ağları Mimarileri…………………………………………………….21 2.8.1. Tek Katmanlı Yapay Sinir Ağı……………………………………………....21 2.8.2. Çok Katmanlı Yapay Sinir Ağı……………………………………………...22 2.8.3. Geri Beslemeli Yapay Sinir Ağı……………………………………………..22 2.8.4. Kafes Yapılı Yapay Sinir Ağı………………………………………………..23 2.9. Yapay Sinir Ağlarında Öğrenme…………………………………………………..24 2.9.1. Danışmanlı Öğrenme………………………………………………………...25 2.9.2. Danışmansız Öğrenme…………………………………………………….....26 2.9.3. Takviyeli Öğrenme…………………………………………………………..26 2.10.Yapay Sinir Ağlarında Öğrenme Kuralları………………………………………..27 2.10.1. Hebb Kuralı………………………………………………………………..27 2.10.2. Hopfield Kuralı…………………………………………………………….28 2.10.3. Delta Kuralı………………………………………………………………..28 2.10.4. Kohonen Kuralı……………………………………………………………28 2.10.5. Gradyan İniş Kuralı………………………………………………………..29 2.10.5.1. Geri Yayılım………………………………………………………29 2.10.5.2. Yakınsama Kriteri…………………………………………………30 III. BÖLÜM TEMEL BİLEŞEN FAKTÖR ANALİZİ 3.1. Temel Bileşen Faktör Analizinin Aşamaları………………………………………31 3.1.1. Değişkenlerin Standart Hale Dönüştürülmesi….…………………………...31 3.1.2. Varyans-Kovaryans (Korelasyon) Matrisinin Hesaplanması………………32 3.1.3. Korelasyon Matrisine Ait Özdeğerlerin ve Özvektörlerin Hesaplanması…..32 3.1.4. Özdeğerler ve Özvektörler Kullanılarak Faktör Yükleri Matrisinin Hesaplanması…………………………………………………………..…....33 vi 3.1.5. Temel Bileşenlerin Hesaplanması…………………………………………..33 3.1.6. Regresyon Yöntemi İle Faktör Skorları Matrisinin Hesaplanması…………34 3.1.6.1. Faktör Skorları Katsayı Matrisinin Hesaplanması………………….34 3.1.6.2. Faktör Skorları Matrisinin Hesaplanması…………………………...34 IV. BÖLÜM UYGULAMA 4.1. Örnek ve değişkenlerin Seçimi…………………………………………………….35 4.2. Temel Bileşen Faktör Analizi (TBFA) Uygulaması………………………….……36 4.3.Yapay Sinir Ağı (YSA) Uygulaması………………………………………….……42 V. BÖLÜM SONUÇ VE ÖNERİLER 5.1. Sonuç ve Öneriler......……………………...………………………………….…...48 KAYNAKÇA……………………………………………………………….…….……49 ÖZGEÇMİŞ………………………………………………………………….………..53 vii KISALTMALAR LİSTESİ YSA: Yapay Sinir Ağı ADALINE: Adaptif Lineer Nöron (Adaptive Linear Neuron) MADALINE: Çoklu Adaptif Lineer Nöron (Multiple Addaline) TBFA: Temel Bileşen Faktör Analizi İMKB: İstanbul Menkul Kıymetler Borsası viii TABLOLAR LİSTESİ Sayfa Tablo 1: Toplam Fonksiyon Örnekleri………………………………………...……......8 Tablo 2: Değişkenlere Ait Korelasyon Matrisi………………………………………...37 Tablo 3: Özdeğerler ve Toplam Varyansın Faktörler Tarafından Açıklanan Kısmı…..38 Tablo 4: Faktör Yükleri Matrisi……………………………………………...….……..39 Tablo 5: Faktör Skorları Katsayıları Matrisi………………………………...…….…..40 Tablo 6: Faktörler ve Faktör Yükleri……………………………………………….….41 Tablo 7: Nöronlar Arasındaki Bağlantı Ağırlıkları…………………………...…….…45 Tablo 8: Sınıflandırma Başarısı (imkbort)……………..……………………..…….….46 Tablo 9: Sınıflandırma Başarısı (dolarort)…………….…………...……………….….47 Tablo 10: Sınıflandırma Başarısı (altınort)……………………………..……………...47 ix ŞEKİLLER LİSTESİ Sayfa Şekil 1: Biyolojik sinir Hücresi……………………………………………………….…4 Şekil 2: Yapay Sinir Hücresi………………………………………………………….…5 Şekil 3: Doğrusal Fonksiyon………………………………………………………….…9 Şekil 4: Basamak Fonksiyon…………………………………………………………...10 Şekil 5: Tek Kutuplamalı Basamak Fonksiyon………………………………………...11 Şekil 6: Çift Kutuplamalı Basamak Fonksiyon………………………………………...11 Şekil 7: Parçalı Doğrusal Fonksiyon…………………………………………………...12 Şekil 8: Sigmoid Fonksiyon…………………………………………………...…….…12 Şekil 9: Tanjant Hiperbolik Fonksiyon……………………………………...………....13 Şekil 10: Sinüs Fonksiyonu………………………………………………………….…13 Şekil 11: Yapay Sinir Ağlarındaki Katmanlar………………………...…………….…19 Şekil 12: İleri Beslemeli Yapay Sinir Ağı……………………………………………...20 Şekil 13: Geri Beslemeli Yapay Sinir Ağı……………………………………………..21 Şekil 14: Tek Katmanlı Yapay Sinir Ağı……………………………………………....22 Şekil 15: Çok Katmanlı Yapay Sinir Ağı……………………………………………....22 Şekil 16: Geri Beslemeli Yapay Sinir Ağı……………………………………………..23 Şekil 17: Kafes Yapılı Yapay Sinir Ağı…………………………………………….….23 Şekil 18: Danışmanlı Öğrenme Yapısı………………………………………………....25 Şekil 19: Danışmansız Öğrenme Yapısı…………...……………………………….….26 Şekil 20: Yakınsama Kriteri……………………...……………………………….……30 Şekil 21: Yapay Sinir Ağı Mimarisi…………….…………………………………..….44 1 I. BÖLÜM GİRİŞ Yapay Sinir Ağları (YSA), beynin fizyolojisinden yararlanılarak oluşturulan bilgi işleme modelleridir. Literatürde 100’den fazla yapay sinir ağı modeli vardır. Bazı bilim adamları, beynimizin güçlü düşünme, hatırlama ve problem çözme yeteneklerini bilgisayara aktarmaya çalışmışlardır. Bazı araştırmacılar ise, beynin fonksiyonlarını kısmen yerine getiren birçok model oluşturmaya çalışmışlardır. YSA’ların öğrenme özelliği, araştırmacıların dikkatini çeken en önemli özelliklerden birisidir. Çünkü herhangi bir olay hakkında girdi ve çıktılar arasındaki ilişkiyi, doğrusal olsun veya olmasın, elde bulunan mevcut örneklerden öğrenerek daha önce hiç görülmemiş olayları, önceki örneklerden çağrışım yaparak ilgili olaya çözümler üretebilme özelliği YSA’lardaki zeki davranışın da temelini teşkil eder. 1943 yılında bir nörobiyolojist olan Warren McCulloch ve bir istatistikçi olan Walter Pitts, “Sinir Aktivitesindeki Düşüncelere Ait Bir Mantıksal Hesap” başlıklı bir makale ile ilk dijital bilgisayarlara ışık tutmuştur. John Von Neumann bu makaleyi, “elektronik beyinler” için bir kopya olarak görmüştür. Yapay zeka alanındaki araştırmacılar içerisinde istisnai bir yeri olan Marvin Minsky, bu makaleden aldığı ilhamla makroskobik zeka fikrini ortaya atmış ve uzman sistemlerin doğmasına neden olmuştur. Bronx Yüksek Bilim Okulu’ndan Frank Rosenblatt, gözün hesaplamaları ile ilgilenmiştir. Bu bilim adamları, öğrenmenin ve zekanın herhangi bir özelliğinin simülasyonunda bilgisayarların aktif olarak nasıl kullanılabileceğini, 1956 yılında düzenlemiş oldukları ilk yapay zeka konferansında tartışmışlardır (Saraç, 2004, s.9). 1959’da, Stanford Üniversitesinden Bernard Widrow, basit nöron benzeri elemanlara dayanan ve “adaline” (Adaptive Linear Neuron) olarak adlandırılan bir adaptif lineer elemanı geliştirmiştir. Adaline ve iki tabakalı biçimi olan “madaline” (Multiple Adaline); ses tanıma, karakter tanıma, hava tahmini ve adaptif kontrol gibi çok çeşitli uygulamalar için kullanılmıştır. Daha sonraları adaline, ayrık bir çıkış yerine sürekli bir çıkış üretmek için geliştirilmiştir. Widrow, telefon hatları üzerindeki ekoları elimine etmeye yarayan adaptif filtreleri geliştirmede, adaptif lineer eleman algoritmasını kullanmıştır. Bununla ilk defa YSA’lar gerçek bir probleme uygulanmıştır (Kıraç, 2011, s.15). Helsinki Teknik Üniversitesi’nden Teuvo Kohonen 1970’lerin ilk yıllarında adaptif öğrenme ve birleşik hafızalar üzerine temel çalışmalar yapmış ve bu olduğu çalışmaları ile danışmansız öğrenme metotlarının gelişmesine ışık tutmuştur. 2 Minsky ve Papert’in perseptron isimli kitaplarında, YSA’nın temel olarak ilgi çekici konular olmadığını belirtmeleri birçok araştırmacının bu alanda çalışmaktan vazgeçmelerine sebebiyet vermiştir. YSA konusunda çalışmaya devam eden Grossberg, YSA modellerini yapılandırmak için nörolojik verinin kullanılması, algı ve hafıza için YSA tabanlı mekanizmaların önerilmesi, belirgin eşitliklerle bütünleşen bir sinaptik model için bir ilişkilendirici kural üzerinde çalışmıştır. 1982 yılında ilgi çeken bir başka gelişme, moleküler biyolojiden beyin kuramcılığına geçiş yapan bir model Caltech fizikçisi Hopfield tarafından sunulmuştur. Kendi adıyla anılan bir ağ yapısı mevcuttur ve birçok alana uygulanmıştır (Batar, 2005, s.2). 1987 yılında yapılan ilk yapay sinir ağları sempozyumundan sonra YSA uygulamaları yaygınlaşmıştır. Günümüzde, YSA’larla ilgili araştırmalar yapan çok sayıda bilim adamı ve araştırma grupları vardır. Farklı bilim ve ilgi alanlarında çalışan birçok araştırmacı, birçok yeni gelişmeleri sunmaya devam edeceklerdir. 1.1. Çalışmanın Amacı Bu çalışmada çok değişkenli istatistiksel yöntem olan temel bileşenler faktör analizi ile yapay sinir ağları modelinin öngörü gücü birleştirilerek İMKB ulusal 100 endeksi, dolar ve altının endeks getirilerinin ortalamanın altında mı yoksa üstünde mi olacağı tahmin edilmeye çalışılmıştır. 1.2. Çalışmanın Önemi ve Yöntemi YSA’lar ile ilgili literatürde borsa tahmini üzerine geleneksel yöntemlerle gerçekleştirilmiş yurtiçinde ve yurtdışında birçok çalışma mevcuttur. YSA’ların doğrusal olmayan işlemlerdeki başarısı YSA’ların ekonomi ve finans alanındaki kullanımı yaygınlaşmaktadır. Buna rağmen YSA’ların kullanıldığı borsayı tahmin etme çalışmaları henüz yeterli sayıda değildir. Geleneksel tahmin yöntemlerinde; verilerin doğrusal olmamasından kaynaklanan bazı sorunlar vardır. YSA’lar geleneksel tahmin yöntemlerinin bu sorunlarını büyük ölçüde telafi edebilirler. Bu çalışmada kullanılan yöntem; üç temel yatırım aracı olan İMKB 100 endeksi, dolar ve altına ait değişkenler kullanılarak TBFA yardımı ile daha az sayıda faktöre indirmek ve bu faktörleri Yapay Sinir Ağı’na girdi olarak kullanılarak yarınki getirilerin ortalama getirinin altında mı yoksa üstünde mi olacağını tahmin etme şeklindedir. 3 1.3. Çalışmanın Sınırlılıkları Söz konusu çalışma; 02.01.1997-30.12.2011 tarihleri arasındaki İMKB Ulusal 100 endeksinin günlük getirilerini kullanması, belirlenen tarihler arasındaki günlük dolar getirisini kullanması ve belirlenen tarihler arasındaki günlük altın getirisini kullanması ile sınırlıdır. 4 II. BÖLÜM YAPAY SİNİR AĞLARI 2.1. Biyolojik Sinir Hücresi İnsanlardaki sinir sistemi sinir adı verilen hücrelerden meydana gelir. Sinirler canlıların hayati faaliyetlerinin yürütüldüğü en küçük birimlerdir. Bir insanda yaklaşık olarak tahmini 1010 adet bulunduğu kabul edilen sinirler sadece insan beyninde değil merkezi sinir sistemi üzerinde tüm vücutta yayılmıştır. Beynin haberleşme sistemini oluşturan sinirlerin görevleri sinyal alma, işlem yapma ve elektrokimyasal sinyallerin sinir ağları içinde iletimini sağlamaktır (Şen, 2004, s.8). Şekil 1 Biyolojik Sinir Hücresi Kaynak: Saraç, 2004, s.20 Şekil 1 de görüldüğü gibi sinir sistemi yapısal olarak 4 bölümden oluşmaktadır. Bunlar; dentritler, soma, akson ve sinaps’tır. Temel olarak biyolojik sinir hücresi diğer kaynaklardan girişleri alır, soma girişleri genelde doğrusal olmayan bir şekilde işler. Akson işlenmiş girişleri çıkışa aktarır. Sinaps diğer sinirlere çıkışı gönderir (Elmas, 2003, s.30). Yapay sinir ağları (YSA) yöntemi, teknoloji ve bilimsel çalışmalardaki uygulamalarda biyolojik sinir sisteminin modellenmesi fikri ile ortaya çıkmıştır. Sinir sisteminin modellenmesiyle YSA paralel çalışma ve öğrenebilme yetenekleri bakımından biyolojik sinir sisteminin özelliğini göstermektedir. 5 2.2. Yapay Sinir Hücresi Biyolojik sinir ağlarının sinir hücreleri olduğu gibi yapay sinir ağlarının da yapay sinir hücreleri vardır. Yapay sinir hücreleri mühendislik biliminde işlem elemanları olarak da adlandırılmaktadır (Öztemel, 2006, s.48). Şekil 2 Yapay Sinir Hücresi Kaynak: Kaynar, Taştan, Demirkoparan, 2010,s.562 Girdiler ( x1 , x2 ,K, xn ) , diğer hücrelerden ya da dış ortamlardan hücreye giren bilgilerdir. Bunlar ağın öğrenmesi istenen örnekler tarafından belirlenir. Ağırlıklar ( w1, w2 ,K, wn ) , girdi kümesi veya kendinden önceki bir tabakadaki başka bir işlem elemanının bu işlem elemanı üzerindeki etkisini gösteren değerlerdir. Her bir girdi, o girdiyi işlem elemanına bağlayan ağırlık değeriyle çarpılarak, toplam fonksiyonu aracılığıyla birleştirilir. Toplam fonksiyonu Denklem 1’de verildiği şekildedir (Kaynar, Taştan ve Demirkoparan, 2010, s.562). net= 1 Toplam fonksiyonunda elde edilen değer doğrusal ya da doğrusal olmayan türevlenebilir bir transfer fonksiyonu ile işlem elemanının değeri aşağıdaki Denklem 2’de verildiği şekilde hesaplanır. y = f (net) = f 2 Tüm yapay sinir ağları bu temel yapıdan üretilmiştir. Bu yapıdaki farklılıklar yapay sinir ağlarının farklı sınıflandırılmalarını sağlar. Bir yapay sinirin öğrenme 6 yeteneği, seçilen öğrenme algoritması içerisinde ağırlıkların uygun bir şekilde ayarlanmasına bağlıdır (Elmas, 2003, s.32). 2.3. Yapay Sinir Ağlarının Temel Elemanları Biyolojik sinir ağlarının hücreleri olduğu gibi yapay sinir ağlarının da yapay sinir hücreleri mevcuttur. Yapay sinir hücre elemanlarına işlem elemanı denilmektedir. İşlem elemanları beş esas elemandan oluşmaktadır. Bunlar; girdiler, ağırlıklar, toplam fonksiyonu, aktivasyon fonksiyonu ve hücre çıktısıdır. 2.3.1. Girdiler Bir yapay sinir hücresi birçok bilgiyi dış dünyadan alır ve bu bilgileri işleme tabi tutar. Gelen bilgiler o sinir hücresi için girdi durumundadır. Girdiler dış dünyadan olduğu gibi kendinden ya da kendinden önceki bir katmandaki işlem elemanının da çıkışı olabilir. 2.3.2. Ağırlıklar Ağırlıklar (w1, w2, …, wi), yapay sinir tarafından alınan girdilerin önemini ve hücre üzerindeki etkisini belirleyen uygun katsayılardır. Her bir girdi kendine ait bir ağırlığa sahiptir. Ağırlıklar, her işlem elemanın her girdisi üzerinde etki yapmaktadır. Yapay sinir ağlarında girdilerin nöronlar arasındaki iletimini sağlayan tüm bağlantıların farklı ağırlık değerleri bulunmaktadır. Bir yapay sinir ağında ağırlıklar bağlantının önem derecesini gösterir. Ağırlıkların büyük ya da küçük olması önemli veya önemsiz olması olduğu anlamına gelmez. Bir ağırlığın değerinin sıfır olması o ağ için en önemli olay olabilir. Eksi değerler önemsiz demek değildir. Artı ya da eksi olması etkisinin pozitif veya negatif olduğunu gösterir. 2.3.3. Toplam Fonksiyonu Toplam fonksiyonunda bir hücreye gelen net girdi hesaplanır. Bu hesaplama için değişik fonksiyonlar kullanılmaktadır. Yaygın olarak ağırlıklı toplam kullanılmaktadır. Burada gelen her girdi değeri ile o girdiye ait olan ağırlığın çarpılarak bu çarpımların toplanmasıdır. net= 3 7 Ancak bazı uygulamalarda aşağıdaki gibi eşik değeri olan b’ de bu toplama dahil edilmiştir. net= ya da net= 4 b eşik değeri girdilerden bağımsız olmasından dolayı bütün girdilerin sıfır olması durumunda çıktı değerinin sıfır değil de eşik değerine eşit olduğu görülmektedir. Böylece belirtilen şartlar altında çıktı değerinin sıfır olması zorunluluğu ortadan kalkmaktadır. Eşik değerinin kullanımı, toplam fonksiyonuna +1 ya da -1 değerine sahip sabit bir girdinin b ağırlığına sahip bir bağlantı ile eklendiği şeklinde ele alınır (Efe ve Kaynak, 2000, s.7). Burada x girdileri w ağırlıkları ve n ise bir hücreye gelen toplam girdi sayısını göstermektedir. Yapay sinir ağlarında daima bu formülün kullanılması şart değildir. Uygulanan yapay sinir ağı modellerinden bazıları kullanılacak toplama fonksiyonunu belirleyebilmektedir. Literatürde yapılan araştırmalarda toplama fonksiyonu olarak değişik formüllerin kullanıldığı görülmektedir. Tablo 1’de değişik toplam fonksiyonlarına örnekler verilmektedir. Görüldüğü gibi, bazı durumlarda gelen girdilerin değeri dikkate alınırken bazı durumlarda ise gelen girdilerin sayısı önemli olabilmektedir. Bir problem için en uygun toplama fonksiyonunu belirlemek için bulunmuş bir formül yoktur. Genellikle deneme yanılma yolu ile toplama fonksiyonu belirlenmektedir. Bir yapay sinir ağında bulunan işlem elemanlarının tamamının aynı toplama fonksiyonuna sahip olmaları gerekmez. Her işlem elemanı bağımsız olarak farklı bir toplama fonksiyonuna sahip olabilecekleri gibi hepsi aynı işlem elemanına sahip olabilir. Hatta ağın bazı işlem elemanları grup halinde aynı toplama fonksiyonuna sahip olabilir. Diğerleri ise farklı fonksiyonlar kullanabilirler. Bu tamamen tasarımcının kendi öngörüsüne dayanarak verdiği karara bağlıdır (Öztemel, 2006, s.49-50). 8 Tablo 1 Toplam Fonksiyon Örnekleri Net giriş Açıklama Çarpım Ağırlık değerleri girdiler ile çarpılır ve Net Girdi = daha sonra bulunan değerler birbirleri ile çarpılarak net girdi hesaplanır. Maksimum N adet girdi içinden ağırlıklar ile Net Girdi = çarpıldıktan sonra en büyüğü yapay sinir hücresinin net girdisi olarak kabul edilir. Minimum N adet girdi içinden ağırlıklar ile Net Girdi = çarpıldıktan sonra en küçüğü yapay sinir hücresinin net girdisi olarak kabul edilir. Çoğunluk N adet girdi içinden ağırlıklar ile Net Girdi = çarpıldıktan sonra pozitif ve negatif olanların sayısı bulunur. Büyük olan sayı hücrenin net girdisi olarak kabul edilir. Kümülâtif toplam Hücreye gelen bilgiler ağırlıklı olarak Net Girdi = toplanır ve daha önce gelen bilgilere eklenerek hücrenin net girdisi bulunur. Kaynak : Ercan Öztemel, Yapay Sinir Ağları, İstanbul: Papatya Yayıncılık, 2006, s.50 2.3.4. Aktivasyon Fonksiyonu Bir girdi katmanı, bir çıktı katmanı ve bir veya daha fazla sayıda paralel gizli katmanlardan oluşan yapay sinir hücresinin çıktı değerlerinin aralığının belirlenmesinde kullanılan fonksiyonlara aktivasyon fonksiyonu denir (Boyacıoğlu ve Kara, 2007 s.211). Aktivasyon fonksiyonu hücreye gelen net girdiyi işleyerek bu net girdiye karşılık üreteceği çıktıyı belirler. Aktivasyon fonksiyonunda da toplam fonksiyonunda olduğu gibi çıktıyı hesaplamak için farklı formüller kullanılmaktadır. Bazı modeller bu fonksiyonun türevinin alınabilir bir fonksiyon olmasını şart koşmaktadır. Toplam fonksiyonunda olduğu gibi aktivasyon fonksiyonunda da ağın işlem elemanlarının hepsinin aynı fonksiyonu kullanması gerekmez. Bazı elemanlar aynı fonksiyonu diğer 9 elemanlar farklı fonksiyonu kullanabilir. Bir problem için en iyi fonksiyon tasarımcının denemeleri sonucunda belirleyebileceği bir durumdur (Öztemel, 2006, s.50). Aktivasyon fonksiyonu girdi ve çıktı elemanları arasındaki eğrisel eşleşmeyi sağlar. Fonksiyonun doğru seçilmesi ağın performansı üzerinde önemli bir etkiye sahiptir. Seçilen fonksiyon tek kutuplu, çift kutuplu yada doğrusal olabilir. Seçilen fonksiyonun doğrusal olmaması durumunda, eğimin parametresi belirlenmelidir. Eğimin parametresi de optimal sonuca yeterli derecede yaklaşılmasında rol oynayan önemli bir faktördür (Erilli, Eğrioğlu, Yolcu, Aladağ ve Uslu, 2010, s.46). Yapay sinir ağlarında doğrusal olmayan fonksiyonların kullanılması ile yapay sinir ağlarının çok karmaşık ve farklı problemlere uygulanması sağlanmıştır. En çok kullanılan aktivasyon fonksiyonları şunlardır (Öztemel, 2006, s.51; Elmas, 2003, s.3334; Saalasti, 2003, s.79; Krieger, 1996, s.6; Koleyni, 2009, s.145, Şen, 2004, s74-78). Doğrusal Fonksiyon Doğrusal fonksiyon hücreye gelen girdileri olduğu gibi hücrenin çıktısı olarak kabul eder. Doğrusal fonksiyon Şekil 3’te gösterildiği gibidir. Çoğunlukla ADALİNE olarak adlandırılan doğrusal modelde, regresyon analizinde ve klasik işaret işlemede kullanılır. Denklemi ise; v = net= veya v = net= y = F(v) = Av olmak üzere 5 Formüldeki A sabit sayıdır. Şekil 3 Doğrusal Fonksiyon. 10 Basamak Fonksiyonu Basamak fonksiyonu tek veya çift kutuplu fonksiyon olabilir. Bu tip fonksiyonların şekli Şekil 4’ te ve matematiksel ifadeleri de Denklem 6 ve 7’de gösterildiği gibidir. Ayrıca Perceptron (Basit Algılayıcı Model) olarak bilinen yapay sinir hücresinde aktivasyon fonksiyonu olarak bu fonksiyon kullanılır. y = F(v) = 6 y = F(v) = 7 (a) Tek kutuplu (b) Çift kutuplu Şekil 4 Basamak Fonksiyonları. Kutuplamalı Basamak Fonksiyonu Kutuplama değeri, tek kutuplu çift kutuplu basamak fonksiyonlarının her ikisine de eklenebilir. Gelen net girdi değerinin belirlenen bir eşik değeri olan b’ nin altında veya üstünde olmasına göre hücrenin çıktısı 1 veya 0 değerini alır. Tek kutuplamalı basamak fonksiyonunun şekli Şekil 5’ te ve matematiksel ifadesi Denklem 8’de gösterildiği gibidir. y = F(v) = 8 11 Şekil 5 Tek Kutuplamalı Basamak Fonksiyon. Çift kutuplamalı basamak fonksiyonları için Şekil.6 ve Denklem 9 aşağıda verilmiştir. y = F(v) = 9 Şekil 6 Çift Kutuplamalı Basamak Fonksiyon. Parçalı Doğrusal Fonksiyon Parçalı doğrusal fonksiyon küçük aktivasyon potansiyeli için, α kazancı olan bir doğrusal toplayıcı (ADALİNE) olarak çalışır. Büyük aktivasyon potansiyeli için, nöron doyuma ulaşır ve çıkış işareti 1 olur. Büyük kazançlar için, α→∞ iken, parçalı doğrusal fonksiyon basamak fonksiyon gibi davranır. Parçalı doğrusal fonksiyonun şekli Şekil 7’de ve matematiksel ifadesi Denklem 10’da gösterildiği gibidir. y = F(v) = 10 12 Şekil 7 Parçalı doğrusal fonksiyon. Sigmoid Fonksiyon Yapay sinir ağlarında en çok kullanılan aktivasyon fonksiyonlarından biridir. Tek kutuplu fonksiyon olarak da adlandırılır. Fonksiyonun en aktif bölgesi 0,2 ile 0,8 arasındadır. Sigmoid fonksiyonunun şekli Şekil 8’de ve matematiksel ifadesi Denklem 11’de gösterildiği gibidir. y = F(v) = = 11 Şekil 8 Sigmoid Fonksiyon Tanjant Hiperbolik Fonksiyon Bu fonksiyon yapay sinir ağlarında en çok kullanılan fonksiyonlardan bir diğeridir. Çift kutuplu fonksiyon olarak da adlandırılır. Giriş uzayının genişletilmesinde etkili bir şekilde kullanılan bir aktivasyon fonksiyonudur. Tanjant hiperbolik fonksiyonun şekli Şekil 9’da ve matematiksel ifadesi Denklem 12’de gösterildiği gibidir. y = F(v) = 12 13 Şekil 9 Tanjant Hiperbolik Fonksiyon. Sinüs Fonksiyon Öğrenilmesi düşünülen olaylar sinüs fonksiyonuna uygun dağılım gösteriyorsa, bu gibi durumlarda aktivasyon fonksiyonu olarak sinüs fonksiyonu kullanılır. Sinüs fonksiyonunun şekli Şekil 10 ve matematiksel ifadesi Denklem 13 olarak aşağıda gösterildiği gibidir. y = F(v) = 13 Şekil 10 Sinüs Fonksiyonu. 2.3.5. Hücrenin Çıktısı Aktivasyon fonksiyonu tarafından belirlenen değer çıktı değeridir. Üretilen çıktı dış dünyaya ya da diğer bir hücreye gönderilir. Bu hücrenin çıktısı kendine ve kendinden sonra gelen bir ya da daha fazla sayıda hücreye giriş olabilir. İşlem elemanının sadece bir çıktı değeri vardır. Ağ şeklinde gösterilmesinden dolayı çıktı elemanının birden fazla çıktı değeri olduğu sanılmaktadır. Bu sadece gösterim amaçlıdır. 14 2.4. Yapay Sinir Ağlarının Avantajları ve Dezavantajları Teknolojik gelişme olarak görülmesi gereken YSA’ lar özellikleri ve yapabildikleri sayesinde önemli avantajlar sağlamaktadır. Bu avantajların yanı sıra bazı dezavantajları da bulunmaktadır. 2.4.1. Yapay Sinir Ağlarının Avantajları Doğrusal Olmama: Nöron temelde doğrusal olmayan bir yapıya sahiptir. Bir sinir ağı ise nöronların karşılıklı olarak bağlanmasından oluştuğu için doğası itibariyle doğrusal değildir. Ayrıca ağın her tarafına dağıtılmış olmasından ötürü özel bir çeşit doğrusal olmama durumu söz konusudur. Özellikle girdi setinin yaratılmasından sorumlu altta yatan fiziksel mekanizma doğası gereği doğrusal değilse bu durumda doğrusal olmama özelliği büyük bir öneme sahip olmaktadır. Sinir ağı modellerinin özellikle parametrik olmayan doğası, doğrusallık ve normallik varsayımının sağlandığından kuşku duyulan sosyal bilim verilerine uygunluk sağlamaktadır (Aras, 2008, s,21). Öğrenme: Geleneksel hesaplama yöntemlerinde bir problemin çözülebilmesi için probleme uygun bir algoritma geliştirilmesi ve programlama yolu ile hesaplama yapılması gerekmektedir. Genellikle bu tür algoritmaların çözüm yeteneği uzmanın kod yazma yeteneği ile sınırlıdır. Bu tür algoritmaların zorluğu ve her problem türüne göre farklı algoritma yazılma ihtiyacı nedeniyle karmaşık problemlerin çözümünde kullanılamazlar. Herhangi bir nesneyi bilgisayara geleneksel yöntemlerle öğretmek için nesnenin mümkün olan tüm açılardaki ve uzaklıklardaki görüntülerini, mümkün olan tüm değişik kombinasyonları ile birlikte göstermeniz gerekmektedir. YSA’ların öğrenme sistemi ise insan beyninin çalışma şekline benzemektedir. Öğrenme, özellikleri verilen örnekler yoluyla yapay sinir ağının kendisi tarafından sağlanmakta ve YSA’lar, örnekleri kullanarak probleme ilişkin genelleme yapabilecek yeteneğe ulaşmaktadır. Bu özelliği sayesinde geleneksel yöntemler için karmaşık olan sorunlara çözüm üretilebilmektedir. Ayrıca, insanların kolayca yapabildiği ancak geleneksel yöntemler için imkansız olan basit işlemler için de uygun olmaktadırlar. Geleneksel sistemlerden ayrıldığı bir başka nokta ise sürekli öğrenmedir. YSA’lar, kendisine gösterilen yeni örnekleri öğrenebilmeleri ve yeni durumlara adapte olabilmeleri sayesinde sürekli olarak yeni olayları öğrenebilmesi mümkündür (Bayır, 2006 s.8). 15 Hata Toleransı ve Esneklik: Yapay sinir ağları, geleneksel işlemcilerden farklı şekilde işlem yapmaktadırlar. Geleneksel işlemcilerde tek bir merkezi işlemci eleman her hareketi sırasıyla gerçekleştirmektedir. Seri bilgi işlem yapan geleneksel bir sistemde herhangi bir birimin hatalı çalışması, hatta tamamen bozulmuş olması tüm sistemin hatalı çalışmasına veya bozulmasına sebep olacaktır. YSA modelleri, her biri büyük bir problemin bir parçası ile ilgilenen çok sayıda basit işlemci elemanlardan oluşmaları ve bağlantı ağırlıklarının ayarlanabilmesi gibi özelliklerinden dolayı önemli derecede esnek bir yapıya sahiptirler. Bu esnek yapı sayesinde ağın bir kısmının zarar görmesi modelde sadece performans düşüklüğü yaratmakta, problemin çözümünde büyük bir soruna yol açmamakta, modelin işlevini tamamen yitirmesi söz konusu olmamaktadır. Bu nedenle, geleneksel yöntemlere göre hatayı tolere etme yetenekleri son derece yüksektir. Ayrıca toplam işlem yükünü paylaşan işlemci elemanların birbirleri arasındaki yoğun bağlantı yapısı sinirsel hesaplamanın temel güç kaynağıdır. Bu yerel işlem yapısı sayesinde, yapay sinir ağları yöntemi en karmaşık problemlere bile uygulanabilmekte ve tatminkar çözümler sağlayabilmektedir (Yurtoğlu, 2005, s.35). Gerçeklenme Kolaylığı: Yapay sinir ağlarında basit işlemler gerçekleyen türden hücrelerden oluşması ve bağlantıların düzgün olması, ağların gerçeklenmesi açısından büyük kolaylıklar sağlamaktadır (Saraç, 2004, s.13). Genelleme: Yapay sinir ağları önceki deneyimlerden öğrenebilir, bir kez eğitildiklerinde yeni bir veri kümesine hemen cevap verebilir. Bir örnekten hareket ederek diğer örnekleri açıklayabilir (Tolon, Güneri ve Tosunoğlu, 2008, s.252). Sınırsız Sayıda Değişken ve Parametre Kullanma: YSA modelleri sınırsız sayıda değişken ve parametre ile istatistik yöntemlerine göre daha iyi tahminler yapabilmektedir. Bu sayede mükemmele yakın tahminler sayesinde genel çözümler sağlanmaktadır. Hafıza: Geleneksel hesaplama yöntemlerinde bilgi, veri tabanlarında veya program kodlarının içinde saklanmaktadır. YSA ise bilgiyi nöronlar arasındaki bağlantılarda saklayabilmektedir. Bu sayede dağılan bilgiyi ağın tamamının öğrendiği ve olayın tamamını gösterebildiği bilinmektedir. Bu nedenle YSA dağıtılan bellekte bilgiyi saklayabilmektedir. 16 2.4.2. Yapay Sinir Ağlarının Dezavantajları YSA kullanımında dezavantaj sayılabilecek noktalar; basit olarak görülebilecek modelleme yapılarına rağmen bazı konularda uygulamanın zor ve karmaşık olmaktadır. Bazı durumlarda, bir yakınsama sağlamak bile imkânsız olabilmekte fakat bu durum da uygulama yapılan alana bağlıdır ve genellikle çok karmaşık problemlerle karşılaşılır (Yurtoğlu, 2005, s.37). Doğru modelleme için genellikle deneme yanılma yönteminin kullanılması da önemli bir dezavantaj olabilir. Çünkü kullanılan modelin doğruluğunu ve oluşturulan çözümün optimum çözüm olup olmadığını test etmek zordur. Model doğru kurulmuş olsa bile yapay sinir ağları optimum çözüm garantisini vermez, yalnızca kabul edilebilir çözümler üretebilir (Öztemel, 2003, s.34). YSA ’nın bilgisayar donanımına bağlı çalışmaları da bir dezavantajdır. YSA’ların temel prensibi olan paralel işlemcilerle günümüz bilgisayarları ve teknolojisi ile uyuşmayabilir. Günümüzdeki bilgisayarlar seri çalışabilmekte ve aynı zamanda tek bilgiyi işleyebilmektedir. Paralel işlemcileri bilgisayarlarda yapmak ise zaman kaybına yol açabilir. 2.5. Yapay SinirAğlarının Uygulama Alanları YSA hem yapısal açıdan çeşitlilikleri hem de öğrenme algoritmalarının çeşitliliği açısından karmaşık problemlerin çözümünde modelin kurulmasında oldukça değişik olanaklar sunmaktadır. Teknolojik gelişmelerin büyük bir ivme kazandığı bu dönemde gerek donanım teknolojilerinin gerekse yazılım geliştirme ortamlarının tasarımcıya sunmuş olduğu olanaklar, kullanıcı istekleri doğrultusunda sistemlerin ve yaklaşımların karmaşıklığındaki artışı da beraberinde getirmiştir. YSA ‘nın ileriye dönük uygulamaları için bu kısımda karmaşık sistemlerin denetimleri, akıllı makineler, borsa, para ve finans konularına değinilmektedir (Efe ve Kaynak, 2000, s.103). Bu uygulamaların hepsini bu çalışmada göstermek imkansızdır. Bu nedenle belli başlı uygulamalardan örneklerle bahsedilecektir. Bu uygulamalar aşağıdaki başlıklar altında özetlenebilir (Saraç, 2004, s.11; Öztemel, 2003, s.205; Li, 1994, s:303 - 313). Endüstriyel Uygulamalar: Yapay sinir ağları bir endüstriyel sektörde fırınların ürettiği gaz miktarının tahmini, imalatta, ürün tasarımı, proses ve makinelerin bakımı ve hataların teşhisi, görsel kalite kontrolü, kimyasal proseslerin dinamik modellenmesi, otomobillerde otomatik rehber sisteminin geliştirilmesi, robotlarda görme sistemleri 17 kontrol edilmesi, cep telefonlarında ses ile çalışabilme, araba pistonlarının üretim şartlarının belirlenmesi, elektronik yonga hata analizleri, optimizasyon çalışmaları, müşteri tatmini ve pazar verilerinin değerlendirilmesi ve analiz edilmesi, kömür güç istasyonları için çevrimiçi karbon akımı ölçülmesi, işlerin makinelere atanması ve çizelgeleme. Finansal Uygulamalar: Makro ekonomik tahminler, banka kredilerinin ve sigorta poliçelerinin değerlendirilmesi, kredi kartı hilelerinin tespiti, kredi kartı kurumlarında iflas tahminleri, emlak kredilerinin yönetilmesi, bond, hisse senedi ve döviz kuru tahminleri, risk analizleri gibi örneklerde uygulama alanı bulmaktadır. Askeri Alanlarda Uygulamaları: Silahların otomasyonunda ve hedef izlemede, radar ve sonar sinyallerinin sınıflandırılması ile nesneleri/görüntüleri ayırma ve tanımada, yeni sensör ve algılayıcı tasarımında, mayın dedektörlerinde, uçakların rotalarının belirlenmesinde ve gürültü önleme gibi alanlarda kullanılmaktadır Haberleşme Uygulamaları: Görüntü ve veri sıkıştırma, otomatik bilgi sunma servisleri, iletişim kanallarındaki gereksiz yankılanmaların ve gürültülerin filtrelenmesi, iletişim kanallarındaki trafik yoğunluğunun kontrol edilmesi ve anahtarlanması gibi alanlarda. Sağlık Uygulamaları: EEG ve ECG gibi tıbbi sinyallerin analizi, kanserli hücrelerin analizi, protez tasarımı, transplantasyon zamanlarının optimizasyonu, kan hücreleri reaksiyonları ve kan analizlerinin sınıflandırılması, kalp krizlerinin önceden tespiti, örüntüleme cihazlarının ürettiği verilerden hastalıkların teşhisi ve hastanelerde giderlerin optimizasyonu, solunum hastalıklarının teşhisi, hamile kadınların karnındaki çocukların kalp atışlarının izlenmesi gibi konularda uygulanmaktadır. Diğer Alanlarda Uygulamalar: Sigorta poliçelerinin değerlendirilmesi, petrol ve gaz aramasının yapılması, karakter, el yazısı ve imza tanıma sistemleri, veri madenciliği, uçak parçalarının hata teşhislerinin yapılması, hava alanlarında bomba dedektörleri ve uyuşturucu koklayıcılar olarak sıralanabilir. 18 2.6. Yapay Sinir Ağlarındaki Katmanlar Sinir ağları nöronların bağlantılarından oluşur. Katman ifadesi yapay sinir ağlarındaki nöronların sırasını belirlemek için kullanılır (Yıldız ve Yezegel, 2010, s.150). Yapay sinir ağlarında üç katman bulunmaktadır. Her katman bir önceki katmandan girdi alır ve bir sonraki katmana çıktı gönderen nöronlara sahiptir (Balas, Koç ve Tür 2010, s.426). Bu katmanlar girdi, gizli ve çıktı katmanlarıdır. Bu katmanları aşağıdaki gibi açıklayabiliriz. 2.6.1. Girdi Katmanı Girdi katmanı dış dünyadan gelen verilerin bulunduğu katmandır. Bu katmanında dış dünyadan gelen girdi değerleri üzerinde herhangi bir işlem uygulanmamaktadır. Bu katmandaki tüm girdi değerleri bir sonraki katman olan gizli katmanın her birimine dağıtılır (Tağluk, Akın ve Sezgin, 2010, s.602). 2.6.2. Gizli Katman Gizli katman girdi ve çıktı katmanları arasında bir köprüdür. Gizli katmanda girdi katmanından gelen girdi değerleri işleme tabi tutulmaktadır (Eletter ve Yaseen, 2010, s.210). Girdi ve çıktı katmanı tek katmandan oluşurken gizli katman bir ya da birden çok katmandan oluşabilir (Tağluk, Akın ve Sezgin, 2010, s.602). Problemin yapısına göre gizli katmanların ve gizli katmanda bulunacak gizli hücrelerin sayısı deneme yanılma yoluyla tasarımcı tarafından düzenlenir. 2.6.3. Çıktı Katmanı Çıktı katmanı, gizli katmandan gelen bilgileri işleyerek dış dünyaya ileten katmandır. Çıktı katmanındaki çıktı ağdaki tüm nöronların birleşik etkisinin sonucudur (Dombaycı ve Gölcü, 2009, s.1159). 19 Şekil 11 Yapay Sinir Ağlarındaki Katmanlar Kaynak: Kutlu, Badur, 2009, s.29 2.7. Yapay Sinir Ağlarının Sınıflandırılması Yapay sinir ağları daha önce de bahsedildiği gibi genel olarak birbirleri ile bağlantılı işlemci birimlerinden ya da diğer bir ifade ile nöronlardan oluşmaktadır. Bu nöronlar arasındaki bağlantıların yapısı ağın yapısını da belirler. Bağlantıların nasıl olacağı, öğrenme algoritması tarafından belirlenir. Yapay sinir ağlarını yapılarına göre sınıflandırmak mümkündür. Bu bölümde yapay sinir ağlarının sınıflandırılması açıklanmaya çalışılacaktır. Yapay sinir ağı mimarileri, nöronlar arasındaki bağlantıların yönlerine veya ağ içindeki işaretlerin akış yönlerine göre; ileri beslemeli ve geri beslemeli olmak üzere ikiye ayrılmaktadır (Ataseven, 2007, s.29). 2.7.1. İleri Beslemeli Ağlar İleri beslemeli yapay sinir ağlarında, hücreler katmanlar şeklinde düzenlenir ve bir katmandaki hücrelerin çıktısı bir sonraki katmana ağırlıklar üzerinden girdi olarak gönderilir. Girdi katmanı, dış ortamlardan aldığı bilgileri hiçbir değişikliğe uğratmadan 20 gizli katmandaki hücrelere iletir. Bilgi, gizli ve çıktı katmanında işlenerek ağın çıktısı belirlenir (Çuhadar ve Kayacan, 2005, s.3). Girdi ve çıktı katmanlarının arasında gizli katmanlar bulunur. Gizli katmandaki nöron sayıları ele alınan problemin gereklerine göre belirlenir, ancak gizli katman veya katmanlardaki nöron sayısının optimallik anlamında doğru sayısını veren herhangi bir analitik yöntem şimdiye kadar geliştirilememiştir. Dolayısıyla gizli katman sayısındaki ve bu katmanların nöron sayılarındaki belirsizlikleri aşabilmenin tek yolu, deneme yanılma yöntemidir (Efe ve Kaynak, 2000, s.13). İleri beslemeli yapay sinir ağlarında sinyaller sadece tek bir yönde, girdi katmanından çıktı katmanına doğru yönelir. Bir katmandan elde edilen çıktı değeri aynı katmandaki nöronları etkilemez. İleri beslemeli ağlarda nöronlar yalnızca bir sonraki katmanda bulunan nöronlarla bağlantıya sahiptir. İleri beslemeli ağ modellerinde ağın çıktısı tamamen ağa giren girdilere bağlıdır. İleri beslemeli ağlar herhangi bir dinamiklik özelliği taşımazlar ve gösterdikleri özellik bakımından doğrusal ve doğrusal olmayan kararlı problem alanlarında uygulanmaları mümkündür (Tolon ve Tosunoğlu, 2008, s.250; Güneri ve Apaydın, 2004, s.175). Şekil 12 İleri Beslemeli Yapay Sinir Ağı Kaynak: Yazıcı, 2007, s.84 2.7.2. Geri Beslemeli Ağlar Geri beslemeli ağlarda da nöronlar ileri beslemeli ağlarda olduğu gibi katmanlarda bulunur. Ancak katmanlar arası bağlantılar tek yönlü değil çift yönlüdür. Bir geri beslemeli ağ, çıktı ve ara katman çıktılarının girdi birimlerine veya önceki ara katmanlara geri beslendiği bir ağ yapısıdır. Böylece girdiler hem ileri yönde hem de geri yönde aktarılmış olur (Kaya, Oktay ve Engin, 2005, s.95). Geri beslemeli ağ yapısında en az bir tane geri besleme çevirimi bulunur. Geri besleme, aynı katmandaki hücreler arasında olabileceği gibi farklı katmanlardaki nöronlar arasında da olabilir (Asilkan ve Irmak, 2009, s.380). 21 Geri beslemeli ağlarda bir katman üzerinde yer alan nöronlar, kendisinden, katmandaki diğer nöronlardan veya diğer katmanlardaki nöronlardan da beslenebilmektedir. Bu nedenle geri beslemeli ağlarda bir nöronun çıktısı, nöronun o andaki girdiler ve ağırlık değerleriyle belirlenmesinin yanında bazı nöronların bir önceki süredeki çıktı değerlerinden de etkilenir. Bu türlü ağlar çok güçlü ve karmaşıktır (Güneri ve Apaydın, 2004, s.175). Şekil 13 Geri Beslemeli Yapay Sinir Ağı Kaynak: Yazıcı, 2007, s.85 2.8. Yapay Sinir Ağı Mimarileri Yapay sinir ağlarında değişik ağ mimariler bulunmaktadır. Bu ağ mimarileri ağı eğitmek için kullanılan algoritmaya bağlıdır. Yapay sinir ağları mimarilerine göre aşağıdaki gibi ayrılmıştır. 2.8.1. Tek Katmanlı Yapay Sinir Ağı Tek katmanlı yapay sinir ağı en basit ağ yapısıdır. Bir giriş katmanı ve bir çıkış katmanı vardır. Bu tip bir ağda bilgi girdiden çıktıya doğru ilerler yani ağ ileri beslemelidir. Tek katman olarak isimlendirilmesinin sebebi, girdi katmanının veri üzerinde hiçbir işlem yapmadan veriyi çıktı katmanına iletmesidir (Yıldız, 2006, s.66). Bu ağlarda süreç elemanlarının değerlerinin ve dolayısıyla ağın çıktısının sıfır olmasını önleyen bir de eşik değeri vardır ve değer daima 1’dir. Ağın çıktısı ağırlıklandırılmış girdi değerlerinin eşik değeri toplanması sonucu bulunur. Bu girdi ile bir aktivasyon fonksiyonundan geçirilerek ağın çıktısı hesaplanır. Tek katmanlı ağlarda çıktı fonksiyonu doğrusal bir fonksiyondur. Bu fonksiyon 1 veya -1 değerlerini almaktadır. Eğer çıktı 1 ise birinci sınıfta -1 ise ikinci sınıfta kabul edilmektedir (Vural, 2007, s.17). 22 Şekil 14 Tek Katmanlı Yapay Sinir Ağı Kaynak: Vural, 2007, s.17 2.8.2. Çok Katmanlı Yapay Sinir Ağı Çok katmanlı yapay sinir ağlarının çalışma prensibi tek katmanlı ağlarla aynı şekildedir. Farklı olarak çok katmanlı yapay sinir ağlarında girdi ve çıktı katmanları arasında gizli katmanların bulunmasıdır. Gizli katmanların sayısı ve gizli katmandaki hücre sayısı problemin yapısına göre belirlenmektedir (Güngör, 2007, s.30). Şekil 15 Çok Katmanlı Yapay Sinir Ağı Kaynak: Torun, 2007, s 58 2.8.3. Geri Beslemeli Yapay Sinir Ağı Geri beslemeli yapay sinir ağlarında çıktı ve ara katman çıktıları, girdi birimlerine veya kendinden önce gelen ara katmanlara geri beslenir ve bu şekilde 23 girişlerin hem ileri yönde hem de geri yönde aktarılması sağlanır (Kaya, Oktay ve Engin, 2005, s.95). Ağ gücü temsil etme kabiliyeti bakımından geri beslemeli ağ yapısı gerçek dinamik bir yapıya sahiptir (Yıldırım, 2002, s.3). Geri beslemeli yapay sinir ağlarında aktivasyon ve hata değeri sonsuza kadar veya kararlı noktaya ulaşıncaya kadar yayılabilir. Aynı katmanlardaki elemanlar birbiri ile bağlantılı olduğundan, gizli katmandaki bir eleman hem dışarıdan gelen hem de kendi katmanındaki elemanlardan gelen verileri girdi olarak kabul edecektir. Yani geri beslemeli bağlantılar fazladan girdiye yol açacaktır. Bu değerler ağın kendisi tarafından hesaplanmaktadır (Bayır, 2006, s.64). Şekil 16 Geri Beslemeli Yapay SinirAğı Kaynak: Kaya, Oktay, Engin 2005 s.95 2.8.4. Kafes Yapılı Yapay Sinir Ağı Kafes yapılı yapay sinir ağlarında kafesin yapısı bir veya birden fazla sinir hücresinden oluşan dizilerden oluşmaktadır. Kafesin boyutu ise ağ grafiğinin bulunduğu uzayda boyutların sayısı olarak ifade edilmektedir (Güngör, 2007, s.33). Şekil 17 Kafes Yapılı Yapay Sinir Ağı Kaynak: Güngör, 2007, s.33 24 2.9. Yapay Sinir Ağlarında Öğrenme Yapay sinir ağlarının en ayırt edici özelliklerinden birisi de öğrenme yeteneğine sahip olmasıdır. Öğrenme elde bulunan örnekler arasındaki yapının iyi bir davranış göstermesini sağlayabilecek olan bağlantı ağırlıklarının hesaplanması olarak tanımlanır. Yapay sinir ağları öğrenme esnasında elde ettiği bilgileri, sinir hücreleri arasındaki bağlantı ağırlıkları olarak saklar. Bu ağırlık değerleri yapay sinir ağlarının verileri başarılı bir şekilde işleyebilmesi için gerekli olan bilgileri içerir (Şen, 2004, s.90). Yapay sinir ağları gibi öğrenme yöntemleri örneklerden öğrenmeye dayanmaktadır. Örneklerden öğrenmenin temel felsefesi bir olay hakkındaki gerçekleşmiş örnekleri kullanarak olayın girdi ve çıktıları arasındaki ilişkileri öğrenmek ve bu ilişkilere göre daha sonra oluşacak olan yeni örneklerin çıktılarını belirlemektir. Burada bir olay ile ilgili örneklerin girdi ve çıktıları arasındaki ilişkinin olayın genelini temsil edecek bilgiler içerdiği kabul edilmektedir. Değişik örneklerin olayı değişik açılardan temsil ettiği varsayılmaktadır. Farklı örnekler kullanarak böylece olay değişik açılardan öğrenilmektedir. Burada bilgisayara sadece örnekler gösterilmektedir. Bunlardan başka herhangi bir ön bilgi verilmemektedir. Öğrenmeyi gerçekleştirecek sistem aradaki ilişkiyi kendi algoritmasını kullanarak keşfetmektedir (Öztemel, 2006, s.24-25). Yapay sinir ağlarının öğrenmesi bir çocuğun öğrenmesi gibidir. Sıcak bir nesneye dokunmaması gerektiğini deneyerek öğrenen çocuklar zamanla daha az sıcak olan bir cisme dokunabilme cesaretini gösterirler ve sıcak süt dolu bardağı elleriyle tutarlar. Yani çocuk sıcaklık bilgisini öğrenmiş olmaktadır. Yapay sinir ağları da benzer olarak; mevcut örnek kümesi üzerinde girdi ile çıktı arasındaki bağıntının ağırlıkların değiştirilmesiyle eğitilirler. Sunulan girdi kümesi için; transfer fonksiyonu tarafından sağlanan değerlere cevap olarak bağlantı ağırlıklarının tamamının veya bir kısmının istenen çıktı ile ağ çıktısı arasındaki farkın belirli bir değere düşünceye kadar değiştirilmesidir. Günümüze kadar çeşitli öğrenme algoritmaları geliştirilmiştir. Bunlar temel olarak danışmanlı öğrenme, danışmansız öğrenme ve takviyeli öğrenme olarak üç ana gruba ayrılır (Civalek ve Ülker, 2004, s.3174). 25 2.9.1. Danışmanlı Öğrenme Danışmanlı öğrenmede, yapay sinir ağı kullanılmadan önce eğitilmelidir. Eğitme işlemi, sinir ağına girdi ve çıktı bilgileri sunmaktan oluşur. Bu bilgiler genellikle eğitme kümesi olarak tanımlanır. Yani, her bir girdi kümesi için çıktı kümesi ağa gösterilir (Elmas, 2006, s.25). Şekil 18 Danışmanlı Öğrenme Yapısı Kaynak: Sağıroğlu Ş., Beşdok E., Erler M. (2003); Mühendislikte Yapay Zeka Uygulamaları I: Yapay Sinir Ağları, Kayseri: Ufuk Kitap Kırtasiye-Yayıncılık, s.81. Şekil 18’de danışmanlı öğrenme yapısı gösterilmektedir. Bu öğrenme yönteminde öğrenmeye dışarıdan müdahale eden bir öğretmen, danışman vardır. Öğrenme danışmanın kontrolündedir. Danışman, eğitim kümesini ve hata değerini belirleyerek eğitimin ne kadar devam edeceğine karar verir (Şen, 2004, s.98-99). Danışmanlı öğrenmenin temel amacı, ağın beklenen çıkışı ile ürettiği çıkış arasındaki hatayı en aza indirmektir. Bu ağlara eğitim sırasında hem girdiler hem de o girdilere karşılık üretilmesi gereken çıktılar verilir. Ağın görevi her girdi için o girdiye karşılık gelen çıktıyı üretmektir. Veriler, girdi katmanına uygulanır, ara katmanlarda işlenir ve çıktı katmanından da çıktılar elde edilir. Kullanılan eğitme algoritmasına göre, ağın çıktısı ile arzu edilen çıktı arasındaki hata tekrar geriye doğru yayılarak hata minimuma düşünceye kadar ağın ağırlıkları değiştirilir (Kılağız ve Baran, 2009, s.31). Bir danışmanlı öğrenme mimarisinde, yapay sinir ağı modelinin performansı, bilinen bir sonuca karşı ölçülür (Papatla, Zahedi ve Zekic-Susac, 2002, s.440). Denetimli öğrenme modelini kullanan ağlar; Perceptron ve ilişkili hafızalar, takviyeli öğrenme, stokastik öğrenme, vektör nicelik öğrenmesi, delta ve 26 genelleştirilmiş delta kuralı, geri yayılma algoritması, bu grup öğrenmede kullanılan etkin metotlardır (Civalek ve Ülker, 2004, s.3174). 2.9.2. Danışmansız Öğrenme Bu öğrenme türünde sistemin öğrenmesine yardımcı olan herhangi bir danışman yoktur. Sisteme sadece girdi değerleri gösterilir (Öztemel, 2006, s.25). Danışmansız öğrenmede sistemin doğru çıktı hakkında bilgisi yoktur ve girdilere göre kendi kendisini örnekler. Danışmansız olarak eğitilebilen ağlar, istenen ya da hedef çıktı olmadan girdi bilgilerinin özelliklerine göre ağırlık değerlerini ayarlar. Uygun bir çıktı üretilinceye kadar bağlantı ağırlıkları değiştirilir (Güngör ve Çuhadar, 2005, s.90). Danışmansız öğrenmede çıktı vektörünün yerine benzer tip girdilerin kümesi oluşturularak bazı matematiksel kural veya fonksiyonel ilişkilerle sınıflandırılmaya çalışır (Vashisth ve Chandra, 2010 s.19). Şekil 19’da danışmansız öğrenme yapısı gösterilmektedir. Bu metot görüntü işleme, işaret işleme ve kontrol problemlerinde etkin olarak kullanılır. Kohonen’in kendini düzenleyen uzaylar, ve adaptif rezonans teorisi (ART) danışmansız öğrenmeye örnek olarak verilebilir (Civalek ve Ülker, 2004, s.3174). Şekil 19 Danışmansız Öğrenme Yapısı Kaynak: Sağıroğlu Ş., Beşdok E., Erler M. (2003); Mühendislikte Yapay Zeka Uygulamaları I: Yapay Sinir Ağları, Kayseri: Ufuk Kitap Kırtasiye-Yayıncılık, s.81. 2.9.3. Takviyeli Öğrenme Takviyeli öğrenmede girdi değerlerine karşılık gelecek uygun çıktıların elde edilmesi sırasında ağırlıkların en uygun değerlerinin bulunmasında genetik algoritmalar 27 veya tabu en iyilime yöntemleri kullanılır. Böylece ağırlıklar optimize edilmektedir (Civalek ve Ülker, 2004, s.3174). 2.10. Yapay Sinir Ağlarında Öğrenme Kuralları Yapay siniri ağları ile ilgili literatürde çok sayıda öğrenme kuralı bulunmaktadır. Öğrenme kuralları kullanılan yapay sinir ağlarının amacı ve ağın topolojisi ile doğrudan ilişkilidir. Ağırlıkların değiştirilmesi bu kurallara göre yapılmaktadır. Yapay sinir ağlarına verilen girdilere göre kendi topolojisine uygun olarak işlem yaptıktan sonra çıktı üretir. Üretilen çıktı değeri hedeflenen değere yakın olması için kullanılan öğrenme kuralı da önemli bir yer tutar. Bu öğrenme kurallarının birçoğu temel olarak Hebb öğrenme kuralın temel almaktadır. Ayrıca araştırmacılar sürekli olarak yeni öğrenme kuralları geliştirmektedirler. Bu öğrenme kurallarından yaygın olarak kullanılan öğrenme kuralları şunlardır. • Hebb Kuralı • Hopfield Kuralı • Delta Kuralı • Kohonen Kuralı • Gradyan İniş Kuralı 2.10.1. Hebb Kuralı Donald Hebb tarafından biyolojik temele bağlı olarak geliştirilmiştir. Tanımı “The Organization Behevair” kitabında anlatılmıştır. Bu öğrenme kuralı basit bir mantığa dayanmaktadır. Eğer nöron başka bir nörondan girdi alıyorsa ve her iki nöron aktif ise aralarındaki ağırlık kuvvetlendirilir dolayısıyla aralarındaki ilişki güçlenir (Saraç, 2004, s.58-59). Başka bir ifadeyle bir yapay sinir hücresi aktif ise bağlı olduğu hücreyi aktif yapmaya, pasif ise pasif yapmaya çalışmaktadır (Öztemel, 2006, s.26). Hebb kuralı diğer tüm öğrenme algoritmalarının temeli sayılır. Günümüzde en çok bilinen yapay sinir ağı öğrenme algoritması olan hata geri yayılım algoritmasının temeli de bu kurala dayanmaktadır (Bayru, 2007, s.34). 28 2.10.2. Hopfield Kuralı Bu kural John Hopfield tarafından geliştirilmiştir ve bu kural Hebb kuralına benzemektedir. Eğer beklenilen çıktı ve girdilerin her ikisi aktif veya her ikisi pasif ise öğrenme katsayısı tarafından bağlantı ağırlığı kuvvetlendirilir. Diğer durumlarda ise zayıflatılır. Ağırlıkların kuvvetlendirilmesi yada zayıflatılması sırasında kullanılan öğrenme katsayısı sabit ve 0-1 arasında kullanıcı tarafından belirlenen sabit bir değerdir. 2.10.3. Delta Kuralı Bu kural Widrow ve Hoff tarafından geliştirilmiş ve Hebb kuralının biraz daha gelişmiş şeklidir. Delta kuralında nöronun gerçek çıktısı ile istenilen çıktı değerleri arasındaki farkı azaltmak için bağlantıların ağırlık değerleri sürekli olarak değiştirilir. Delta kuralı ortalama karesel hatayı, bağlantı ağırlık değerlerinin değiştirilmesi ile minimize etme prensibine dayanır. Bu sebeple de bu algoritmaya Widrow-Hoff öğrenme kuralı veya en küçük kareler öğrenme kuralı (Least Mean Square, LMS) olarak da bilinmektedir. Hata aynı anda bir katmandan bir önceki katmana geri yayılarak azaltılır. Ağın hatalarının düşürülmesi işlemi, çıktı katmanından girdi katmanına ulaşıncaya kadar devam eder (Saraç, 2004, s.59-60). Delta kuralı kullanılırken dikkat edilmesi gereken en önemli etken, girdi setindeki verilerin rastgele dağılmış olması gerekmektedir. Eğitim setinin düzgün sırada olması veya yapısal olarak düzgün olması, istenilen doğruluğa ulaşmaya engel teşkil etmekte ve ağın öğrenmesini zorlaştırmaktadır (Bayır, 2006, s.31). 2.10.4. Kohonen Kuralı Bu kural Kohonen tarafından biyolojik sistemlerdeki öğrenmeden esinlenerek geliştirilmiştir. Bu kuralda nöronlar ağırlıklarını değiştirmek için birbirleri ile yarışırlar. En uygun çıktıyı üreten nöron kazanan nöron olur ve kendisine komşu olan diğer nöronların ağırlıklarını değiştirir. Kohonen kuralında bir beklenen değer dizisi olmasına gerek yoktur. Bu nedenle de kendi kendine yani danışmansız öğrenme metodudur (Şen, s 98). 29 2.10.5. Gradyan İniş (Eğim İniş) Kuralı Bu çalışmada YSA modelinin tahmin edilmesinde eğim inişi yöntemi kullanılmıştır (Bölüm 4.3). Bu kural Delta kuralına benzemektedir. Bu kuralda hatanın düzeltilmesi için transfer fonksiyonun türevi kullanılır. Bu kurala göre öğrenme katsayısı bir sabitle çarpılarak ağırlık değiştirilir. Bu kural yavaş bir yakınsama sağlamasına rağmen yaygın olarak kullanılmaktadır (Yurtoğlu, 2005, s.101). 2.10.5.1. Geri Yayılım Geri yayılım, ağırlıkların nasıl ayarlanması gerektiğine karar verir. Her ağırlık diğer ağırlıklar ile hata tahminini paylaşır. Aynı zaman da küçük bir hata küçük bir düzenlemeyi büyük bir hata da büyük bir düzenlemeyi gerektirir. Geri yayılım da ağırlıkların ayarlanması için kullanılan formül şu şekildedir; i tane gözlem tahmini W’nun bir fonksiyonudur. Dolayısı ile E hata tahmini de W’nun bir fonksiyonudur. Bu bilgiler ışığında hata tahmini formülünü şu şekilde ifade edebiliriz; E(W)=∑ Eğim iniş metodu ile formülü şu şekilde yenileyebiliriz; = + ( Burada, , = 0 ile 1 arasında öğretici parametre sırasıyla eski ve yeni hata fonksiyonlarına ait gradyan (eğim) vektörünü temsil etmektedir. Yöntem, her yinelemede eğim vektörü doğrultusunda kadar adım atılmasını sağlar. Yineleme ve arasında fark kalmayıncaya kadar devam eder. Sonuç olarak gelinen nokta hata fonksiyonuna ait bir yerel minimumdur. Bu formülün daha farklı varyasyonu da vardır, o da şu şekildedir; = + ( ) + ( ), Ağ yapısı, gizli katmana ve gizli katmanlardaki düğüm sayısına karar verir. Öğretici parametre ve momentum rastgele ağırlıklar ile ağı eğitmeye başlar. İlk gözlem 30 ağa iletilir ve bu gözlem üzerinden hata tahmini yapılır. Daha sonra hata geri gönderilerek ağırlıklar tekrardan ayarlanmaktadır. Bu şekilde tüm gözlemler ile aynı uygulama yapılır ve yakınsama onayı alınarak eğitime son verilmektedir. 2.10.5.2. Yakınsama Kriteri Toplam hata tahminindeki azalma küçük ve ağırlıklardaki değişiklik az ise, bu bize ağ eğitiminin hatayı minimize ettiği noktada olduğunu göstermektedir. Hata azalmaya devam ediyor ise bu bizim çok iyi bir eğitici veri aldığımızı gösterir. Ancak bir noktadan sonra eğitime son verilmez ise ağ ezberlemeye başlar ve genelleme gücünü kaybeder. Bunu anlamı şudur; eğitici veri setinden bir X değeri ağa gönderildiği zaman ağ şiddetle Y değerini tahmin eder ancak daha önce hiç görmediği bir X değeri gönderilir ise tahmin etmesi zor olur. Veri seti, eğitici veri ve test edici veri olmak üzere ikiye ayrılmaktadır. Eğitici veri, modelin yapılandırılmasında kullanılır. Test edici veriler ise modelin daha önce görmediği veriler üzerindeki performansı test etmektedir. Şekil 20 Yakınsama Kriteri Genel olarak eğitici veri üzerindeki hata azalarak devam eder ancak test üzerindeki hata Şekil 20’de görüldüğü gibi bir noktaya kadar azalır ve o noktadan sonra artarak devam eder. 31 III. BÖLÜM TEMEL BİLEŞEN FAKTÖR ANALİZİ Temel Bileşenler Faktör Analizi (TBFA) çok değişkenli istatistiksel bir yöntem olup çok sayıda değişkeni daha az sayıda faktöre indirgemeyi amaçlar; nxm boyutundaki değişken uzayını nxk boyutundaki faktör uzayına indirger (n=gözlem sayısı, m=değişken sayısı ve k=faktör sayısı). TBFA, birbiri ile yakın ilişki ve etkileşimleri gösteren değişken gruplarını özetleyen anlamlı faktörleri belirler. TBFA ile her bir gözlem için faktör skorları hesaplanabilir. Faktör skor değerleri daha sonra regresyon diskriminant, logit, probit ve yapay sinir ağı modeli gibi modellerde bağımsız (girdi) değişken olarak kullanılabilir. TBFA ile saptanan ortak faktörler (bağımsız değişkenler) birbirleri ile korelasyon göstermedikleri için bağımsız değişkenler arasında olası bir çoklu bağlantı (multicollinearity) probleminden de kaçınılmış olunmaktadır. Model seçiminde cimrilik ilkesine (pirincipal of parsimony) uygun olarak, optimum sayıda “iyi tahmin edici” değişken (faktör) saptar. TBFA’de değişkenler çok değişkenli normal dağılımdan gelmeli ve metrik ölçekte olmalıdır (oran ya da aralık ölçeği). Nominal ölçek (cinsiyet, medeni durum gibi) ya da ordinal ölçek (küçük, orta ve büyük ölçekli firmalar gibi) faktör analizi için uygun değildir. 3.1. TBFA’nın Aşamaları: 3.1.1. Değişkenlerin Standart Hale Dönüştürülmesi: Aşağıda n adet gözlem ve m adet değişkenden oluşan Gnxm matrisi verilmiş olsun. g11 g12 L g1m g g 21 22 Gnxm = M O gnm gn1 32 _ TBFA analizinde, öncelikle değişkenler ( g ij ), ortalama sıfır ( g j = 0), standart sapma bir ( s g j =1) olacak şekilde aşağıdaki eşitliğe göre standart değerlere dönüştürülür. _ z ij = g ij − g j sg j z11 z12 L z1m z z 21 22 Znxm = M O znm zn1 3.1.2. Varyans-Kovaryans (Korelasyon) Matrisinin Hesaplanması: Değişkenlerin standart değerlerini içeren ( Z nxm ) matrisine ait varyans-kovaryans matrisi hesaplanır. Değişkenler standart değerlere dönüştürüldüğü için varyanskovaryans matrisi aynı zamanda aşağıdaki korelasyon matrisini ( Rnxm ) verir. Bu matris köşegen elemanları 1’e eşit ve simetriktir. 1 r12 L r1m r 1 21 Rmxm= M O 1 rn1 3.1.3. Korelasyon Matrisine Ait Özdeğerlerin ve Özvektörlerin Hesaplanması: R e = λ e özdeğer eşitliğinden, korelasyon ( R mxm ) matrisine ait özdeğerler ( λ j ) ve özvektörler ( e j ) hesaplanır; m adet değişken için m adet özdeğer ve m adet özvektör hesaplanabilir ( j =1,2,..,m). Hesaplanan birinci özdeğer orijinal değişken grubuna ait toplam varyansı en çok açıklayan birinci temel bileşene aittir. Hesaplanan ikinci özdeğer orijinal değişken grubuna ait toplam varyansı ikinci sırada en çok açıklayan ikinci temel bileşene aittir. Özdeğeri 1’den büyük olan k adet temel bileşen seçilir (k<m). Böylece hesaplanan 33 k’inci özdeğer orijinal değişken grubuna ait toplam varyansı k’inci sırada toplam varyansı açıklayan k’inci temel bileşene aittir. Orijinal değişkenler standart hale dönüştürüldüğü için her bir değişkenin ortalaması 0 varyansı ise 1 olacaktır. Toplam m adet değişken olduğunda ise toplam varyans m’e eşit olacaktır. Özdeğeri 1’den küçük olan faktörlerin seçilmemesinin nedeni bu faktörlerin toplam varyansı açıklamada tek bir değişkenden daha az açıklayıcı güce sahip olmasından dolayıdır. 3.1.4. Özdeğerler ve Özvektörler Kullanılarak Faktör Yükleri Matrisin Hesaplanması: Hesaplanan özdeğerler ve özvektörler kullanılarak faktör yükleri matrisi ( Lmxk ) hesaplanır. Burada, m= değişken sayısı, k= faktör (temel bileşen) sayısıdır. l11 l12 L l1k l l 21 22 Lmxk = M O lmk lm1 Burada, l ij = e ij λ j dir. 3.1.5. Temel Bileşenlerin Hesaplanması: Değişkenlerin standart değerlerini içeren matrisle faktör yükleri matrisi çarpılarak değişkenler faktörlere dönüştürülür ve nxk boyutlu faktör matrisi ( Fnxk ) hesaplanır. Fnxk = Z nxm Lmxk z11 z12 L z1m l11 l12 L l1k f11 f12 L f1k z z f f l21 l22 21 22 21 22 = Fnxk = M M O O O M fnk znm lm1 lmk fn1 zn1 Örneğin, birinci gözleme ait birinci faktör (birinci temel bileşen) aşağıdaki gibi hesaplanır. f11 = z11l11 + z12l21 + ... + z1mlm1 34 Yine birinci gözleme ait ikinci faktör (ikinci temel bileşen) aşağıdaki gibi hesaplanacaktır. f12 = z11l12 + z12 l 22 + ... + z1m l m 2 Hesaplanan temel bileşenler birbirinden bağımsızdır. Diğer bir değişle temel bileşenler kendi aralarında anlamlı korelasyon göstermezler. 3.1.6. Regresyon Yöntemi İle Faktör Skorları Matrisinin Hesaplanması: 3.1.6.1. Faktör Skorları Katsayı Matrisinin ( Bmxk ) Hesaplanması: Her bir standartlaştırılmış değişken vektörü ( Z j ) bağımlı değişken, faktör matrisi ( Fnxk ) bağımsız değişken olacak şekilde m adet regresyon analizi gerçekleştirilerek faktör skorları katsayı matrisi ( Bmxk ) hesaplanır. ' B = (F F ) −1 F ' Z 3.1.6.2. Faktör Skorları Matrisinin ( S nxk ) Hesaplanması: Standartlaştırılmış değişken matrisi ( Z nxm ) faktör skorları katsayı matrisi ( Bmxk ) ile çarpılarak faktör skorları matrisi ( S nxk ) hesaplanır. S nxk = Z nxm Bmxk z11 z12 L z1m b11 b12 L b1k s11 s12 L s1k z z s s b b 21 22 21 22 21 22 = Snxk = M O M O O M znm bm1 bmk sn1 snk zn1 Örneğin, birinci gözleme ait birinci faktör skoru aşağıdaki gibi hesaplanır. s 11 = z 11 b 11 + z 12 b 21 + ... + z 1 m b m 1 Yine birinci gözleme ait ikinci faktör skoru aşağıdaki gibi hesaplanacaktır. s 12 = z 11 b 12 + z 12 b 22 + ... + z 1 m b m 2 35 IV. BÖLÜM UYGULAMA Bu çalışmada üç temel yatırım aracı olan İMKB 100 endeksi, dolar ve altına ait son beş günlük getiri değerleri dikkate alınarak (toplamda 15 değişken) bu yatırım araçlarına ait yarınki getiri tahmin edilmeye çalışılmıştır. Öncelikle bu 15 değişken kullanılarak TBFA gerçekleştirilmiş ve 8 adet faktör saptanmıştır. Bu faktörlere ait skorlar YSA’da girdi olarak kullanılarak yarınki getirilerin ortalama getirinin altında mı yoksa üstünde mi olacağı tahmin edilmeye çalışılmıştır. 4.1. Örnek ve Değişkenlerin Seçimi Çalışmanın örnek setini 02.01.1997-30.12.21011 tarihleri arasındaki 2957 adet İMKB 100 endeksi getirileri ve ayrıca Türkiye’de menkul kıymet piyasasında yatırım yapan yatırımcıların dikkate aldığı iki önemli yatırım aracı olan dolar ve altına ait günlük getiriler kullanılmıştır. Bu verilerin tamamı Merkez Bankası Elektronik Veri Dağıtım veri tabanı sisteminden alınmıştır. (www.tcmb.gov.tr). Üç yatırım aracına ait getiriler (İMKB100 endeksi, dolar ve altın) aşağıdaki gibi hesaplanmıştır; Burada; = Getiriyi, = Bugünün kapanış fiyatı, ise dünün kapanış fiyatını temsil etmektedir. Gnxm gözlem matrisi n=2957 adet gözlem ve m=15 adet değişkenden oluşmaktadır. Burada birinci değişken İMKB endeksi bugünkü getirisi (imkbbugün), ikinci değişken İMKB endeksi dünkü getirisi (imkbdün), üçüncü değişken İMKB endeksi iki gün önceki getirisi (imkbiki), dördüncü değişken İMKB endeksi üç gün önceki getirisi (imkbüç), beşinci değişken İMKB endeksi dört gün önceki getirisi (imkbdört), altıncı değişken doların bugünkü getirisi (dolarbugün), yedinci değişken doların dünkü getirisi (dolardün), sekizinci değişken doların iki gün önceki getirisi (dolariki), dokuzuncu değişken doların üç gün önceki getirisi (dolarüç), onuncu değişken doların dört gün önceki getirisi (dolardört), onbirinci değişken altının bugünkü getirisi (altınbugün), onikinci değişken altının dünkü getirisi (altındün), onüçüncü değişken altının iki gün önceki getirisi (altıniki), ondördüncü değişken altının üç gün 36 önceki getirisi (altınüç) ve onbeşinci değişken altının dört gün önceki getirisi (altındört) olarak kodlanmıştır. Çalışmada kullanılan veriler çok sayıda (2957) olduğu için tablo şeklinde verilmemiştir. 4.2. Temel Bileşen Faktör Analizi (TBFA) Uygulaması Bu çalışmada Temel Bileşenler Faktör Analizi (TBFA) uygulanmasındaki birinci amaç, değişkenler arasındaki temel ilişki ve etkileşimleri saptamak olup anlamlı faktörleri belirlemektir. İkinci amaç, daha önce değinildiği gibi model seçiminde cimrilik ilkesine (pirincipal of parsimony) uygun olarak, optimum sayıda “iyi tahmin edici” değişken (faktör) saptamaktır. TBFA’de üçüncü amaç, her değişken için faktör skorları hesaplamaktır. Bu faktör skorları daha sonra gerçekleştirilen YSA modelinde girdi olarak kullanılmıştır. TBFA ile saptanan ortak faktörler (bağımsız değişkenler) birbirleri ile korelasyon göstermedikleri için bağımsız değişkenler arasında olası bir çoklu bağlantı (multicollinearity) probleminden de kaçınılmış olunmaktadır. Değişkenlerin Standart Hale Dönüştürülmesi: ( Gnxm ) matrisi n=2957 adet gözlem ve m=15 adet değişkenden oluşmaktadır. Değişkenlerin standartlaştırılmış değerleri çok sayıda olduğu için tablo şeklinde verilmemiştir. Varyans-Kovaryans (Korelasyon) Matrisinin Hesaplanması: Değişkenlere ait korelasyon matrisi Tablo 2’de hesaplanmıştır. 37 Tablo 2 Değişkenlere Ait Korelasyon Matrisi ( Rnxm ) İmkb İmkb İmkb İmkb İmkb dolar bugün dün iki imkbugün 1,000 ,003 ,026 -,030 ,010 ,079 -,010 ,032 ,020 -,021 -,122 ,029 -,015 ,037 -,032 imkbdün ,003 1,000 ,003 ,026 -,030 -,015 ,079 -,010 ,032 ,020 -,037 -,122 ,029 -,015 ,037 imkbiki ,026 ,003 1,000 ,003 ,027 ,012 -,015 ,079 -,010 ,032 -,005 -,037 -,122 ,029 -,015 imkbüç -,030 ,026 ,003 1,000 ,004 -,089 ,012 -,015 ,079 -,010 -,011 -,005 -,037 -,122 ,029 imkbdört ,010 -,030 ,027 ,004 1,000 ,005 -,088 ,012 -,015 ,078 -,036 -,011 -,005 -,038 -,123 dolarbugün ,079 -,015 ,012 -,089 ,005 1,000 -,001 -,001 -,001 -,001 ,064 ,151 ,045 -,009 ,052 dolardün -,010 ,079 -,015 ,012 -,088 -,001 1,000 -,001 -,001 -,001 ,035 ,064 ,151 ,045 -,009 dolariki ,032 -,010 ,079 -,015 ,012 -,001 -,001 1,000 -,001 -,001 ,115 ,035 ,064 ,151 ,045 dolarüç ,020 ,032 -,010 ,079 -,015 -,001 -,001 -,001 1,000 -,001 -,018 ,115 ,035 ,064 ,151 dolardört -,021 ,020 ,032 -,010 ,078 -,001 -,001 -,001 -,001 1,000 -,019 -,018 ,115 ,035 ,064 altınbugün -,122 -,037 -,005 -,011 -,036 ,064 ,035 ,115 -,018 -,019 1,000 -,100 ,037 -,020 ,020 altındün ,029 -,122 -,037 -,005 -,011 ,151 ,064 ,035 ,115 -,018 -,100 1,000 -,101 ,037 -,020 altıniki -,015 ,029 -,122 -,037 -,005 ,045 ,151 ,064 ,035 ,115 ,037 altınüç ,037 -,015 ,029 -,122 -,038 -,009 ,045 ,151 ,064 ,035 -,020 ,037 -,101 1,000 -,101 altındört -,032 ,037 -,015 ,029 -,123 ,052 -,009 ,045 ,151 ,064 ,020 üç dört dolar dolar dolar dolar altın bugün dün iki üç dört altın bugün dün altın altın altın iki üç dört -,101 1,000 -,101 ,037 -,020 ,037 -,101 1,000 Korelasyon Matrisine Ait Özdeğerlerin ve Özvektörlerin Hesaplanması: R e = λ e özdeğer eşitliğinden, Tablo 2’de verilen korelasyon ( R mxm ) matrisine ait özdeğerler ( λ j ) ve özvektörler ( e j ) hesaplanır; m=15 adet değişken için 15 adet özdeğer ve 15 adet özvektör hesaplanabilir ( j =1,2,..,m). Orijinal değişkenler standart hale dönüştürüldüğü için her bir değişkenin ortalaması 0 varyansı ise 1 olacaktır. Toplam m=15 adet değişken olduğunda ise toplam varyans 15’e eşit olacaktır. Özdeğeri 1’den küçük olan faktörlerin seçilmemesinin nedeni bu faktörlerin toplam varyansı açıklamada tek bir değişkenden daha az açıklayıcı güce sahip olmasından dolayıdır. 38 Tablo 3 Özdeğerler ve Toplam Varyansın Faktörler Tarafından Açıklanan Kısmı Faktörler Özdeğerler %Varyans Kümilatif % Özdeğerler %Varyans Kümilatif % 1 1,358 9,054 9,054 1,358 9,054 9,054 2 1,292 8,611 17,665 1,292 8,611 17,665 3 1,239 8,263 25,928 1,239 8,263 25,928 4 1,163 7,751 33,679 1,163 7,751 33,679 5 1,137 7,583 41,262 1,137 7,583 41,262 6 1,125 7,499 48,762 1,125 7,499 48,762 7 1,052 7,017 55,778 1,052 7,017 55,778 8 1,003 6,683 62,462 1,003 6,683 62,462 9 ,973 6,484 68,946 10 ,926 6,176 75,121 11 ,851 5,671 80,793 12 ,837 5,579 86,372 13 ,763 5,085 91,457 14 ,725 4,831 96,288 15 ,557 3,712 100,000 Tablo 3’te görüldüğü gibi birinci faktör toplam varyansın %9,054’ünü, ikinci faktör %8,611’ini, üçüncü faktör %8,263’ünü dördüncü faktör %7,751’ini, beşinci faktör %7,583’ünü, altıncı faktör %7,499’nu, yedinci faktör %7,017’sini ve sekizinci faktör %6,683’ünü açıklamaktadır. Tahmin edilen toplam 8 ortak temel faktör toplam değişken varyansının %62,462’sini açıklamaktadır. Özdeğerler ve Özvektörler Kullanılarak Faktör Yükleri Matrisin Hesaplanması: Tablo 3’te hesaplanan özdeğerler kullanılarak, Tablo 4’te faktör yükleri matrisi ( Lmxk ) hesaplanmıştır. Burada, m=15 (değişken sayısı), k=faktör (temel bileşen) sayısıdır. 39 Tablo 4 Faktör Yükleri Matrisi ( Lmxk ) 1 2 3 4 5 6 7 8 altıniki ,552 ,235 ,222 -,422 ,139 ,072 ,127 ,076 altınüç -,409 ,314 ,360 ,232 ,275 -,244 ,209 -,303 altındört ,398 ,342 -,283 ,288 -,019 ,323 -,278 -,248 altındün -,399 ,470 -,356 -,150 -,174 ,000 ,296 ,152 dolarbugün -,131 ,446 -,014 -,354 -,265 ,262 -,394 ,210 dolarüç ,078 ,424 -,416 ,288 ,205 ,148 ,230 -,099 dolariki -,086 ,354 ,470 ,351 ,068 ,183 ,104 ,205 imkbiki -,255 -,074 ,170 ,389 ,210 ,222 -,291 ,385 altınbugün ,268 ,098 ,450 ,229 -,507 ,146 ,010 ,146 imkbdün ,325 -,037 -,004 ,106 ,463 -,251 -,345 ,110 dolardün ,274 ,342 ,124 -,152 ,118 -,506 ,193 ,391 imkbdört -,205 -,303 ,096 -,275 ,206 ,476 ,287 ,237 dolardört ,179 ,067 ,155 -,184 ,447 ,460 ,192 -,195 imkbugün -,316 ,170 -,115 -,210 ,350 -,039 -,405 ,199 imkbüç ,215 -,193 -,409 ,321 ,041 ,052 ,291 ,507 Temel Bileşenlerin Hesaplanması: Fnxk matrisinde gözlem sayısı çok sayıda olduğu için tablo şeklinde verilmemiştir. Regresyon Yöntemi İle Faktör Skorları Matrisinin Hesaplanması: Faktör Skorları Katsayı Matrisinin Hesaplanması: Tablo 5, TBFA ile hesaplanan faktör skor katsayıları matrisini vermektedir. 40 Tablo 5 Faktör Skor Katsayıları Matrisi ( Bmxk ) 1 2 3 4 5 6 7 8 imkbugün -,040 -,068 -,467 ,016 ,076 ,337 -,023 ,227 imkbdün ,115 -,467 -,281 -,030 ,247 -,023 -,070 ,152 imkbiki -,024 -,125 -,049 -,074 -,085 ,063 -,025 ,657 imkbüç ,098 ,189 ,000 -,518 ,182 -,375 -,033 ,283 imkbdört -,281 ,190 -,053 -,198 -,102 -,048 ,531 ,172 dolarbugün ,029 ,139 ,018 -,116 ,021 ,688 -,018 ,076 dolardün -,103 ,060 -,022 ,001 ,713 -,041 -,107 ,016 dolariki ,073 ,076 ,291 ,234 ,145 ,012 ,118 ,458 dolarüç ,525 ,246 -,107 ,037 ,045 -,179 ,088 ,039 dolardört ,148 -,072 -,050 ,118 -,037 -,027 ,638 -,031 altınbugün -,029 -,024 ,638 -,043 ,042 ,114 -,088 ,136 altındün ,073 ,631 -,106 -,004 ,120 ,100 -,059 -,029 altıniki ,017 -,108 ,116 -,057 ,409 ,158 ,376 -,199 altınüç ,020 ,084 -,053 ,672 ,047 -,197 ,000 ,083 altındört ,628 -,157 ,085 -,058 -,167 ,159 ,000 -,024 Faktör Skorları Matrisinin Hesaplanması: Hesaplanan faktör skorları matrisi ( S nxk ) çok sayıda gözlem içerdiği için tablo şeklinde verilmemiştir. Faktörlerin Yorumlanması: TBFA ile hesaplanan sekiz adet faktörün yorumlanmasını daha basite indirgemek amacıyla “varimax” faktör döndürülmesi (varimax factor rotation) işlemi gerçekleştirilmiştir. Bu yöntem, herhangi bir faktör üzerinde ağırlığı (etkisi) fazla olan değişkenlerin belirlenmesini sağlayarak faktörlerin yorumlanmasını kolaylaştırmaktadır. Yöntem herhangi bir bilgi kaybına neden olmamaktadır. 41 Tablo 6 Faktörler ve Faktör Yükleri 1 altındört ,762 dolarüç ,645 2 altındün ,764 imkbdün -,547 3 altınbugün ,762 imkbugün -,547 4 altınüç ,797 imkbüç -,593 5 dolardün ,818 altıniki ,513 dolarbugün 6 7 8 ,789 dolardört ,724 imkbdört ,594 imkbiki ,731 dolariki ,526 Tablo 6’da varimax faktör döndürmesinden sonra hesaplanan değişkenlere ait faktör yükleri verilmektedir. Burada, faktör yükü 0,50’nin üzerinde olan değişkenler görülmektedir. Tahmin edilen birinci faktör (1) altında, faktör yükü sırasına göre sırasıyla altındört, dolarüç değişkenleri gruplanmıştır. altındört ve dolarüç değişkenlerine ait faktör yükleri sırasıyla 0,752 ve 0,645’tir. Dolayısı ile birinci faktör çalışmamızda dikkate aldığımız yatırım araçları getirilerindeki toplam değişimi birinci derecede açıklamaktadır. Birinci faktör toplam değişken varyansının %9,054’ünü açıklamaktadır. Tahmin edilen ikinci faktör (2) altında, faktör yükü sırasına göre altındün, imkbdün değişkenleri gruplanmıştır. altındün ve imkbdün değişkenlerine ait faktör yükleri sırasıyla 0,764 ve -0,547’dir. Ancak ikinci faktör ile bu faktör içinde yer alan imkbdün değişkeni arasında negatif ilişki söz konusudur. İkinci faktör toplam değişken varyansının %8,611’ini açıklamaktadır. 42 Tahmin edilen üçüncü faktör (3) altında, faktör yükü sırasına göre altınbugün, imkbbugün değişkenlerinden oluşmaktadır. altınbugün ve imkbbugün değişkenlerine ait faktör yükleri sırasıyla 0,762 ve -0,547’dir. Üçüncü faktör ile bu faktör içinde yer alan imkbbugün değişkeni arasında negatif bir ilişki söz konusudur. Üçüncü faktör toplam değişken varyansının %8,263’ünü açıklamaktadır. Tahmin edilen dördüncü faktör (4) altında, faktör yükü sırasına göre altınüç, imkbüç değişkenlerinden oluşmaktadır. altınüç ve imkbüç değişkenlerine ait faktör yükleri sırasıyla 0,797 ve -0,593’tür. Dördüncü faktör ile bu faktör içinde yer alan imkbüç değişkeni arasında negatif bir ilişki söz konusudur. Dördüncü faktör toplam değişken varyansının %7,751’ini açıklamaktadır. Tahmin edilen beşinci faktör (5) altında, faktör yükü sırasına göre dolardün, altıniki değişkenlerinden oluşmaktadır. dolardün ve altıniki değişkenlerine ait faktör yükleri sırasıyla 0,818 ve 0,513’tür. Beşinci faktör toplam değişken varyansının %7,583’ünü açıklamaktadır. Tahmin edilen altıncı faktör (6) altında, faktör yükü sırasına göre dolarbugün değişkeninden oluşmaktadır. dolarbugün değişkenine ait faktör yükü 0,789’dur. Altıncı faktör toplam değişken varyansının %7,499’unu açıklamaktadır. Tahmin edilen yedinci faktör (7) altında, faktör yükü sırasına göre dolardört, imkbdört değişkenlerinden oluşmaktadır. dolardört ve imkbdört değişkenlerine ait faktör yükleri sırasıyla 0,724 ve 0,594’tür. Yedinci faktör toplam değişken varyansının %7,017’sini açıklamaktadır. Tahmin edilen sekizinci faktör (8) altında, faktör yükü sırasına göre imkbiki, dolariki değişkenlerinden oluşmaktadır. imkbiki ve dolariki değişkenlerine ait faktör yükleri sırasıyla 0,731 ve 0,526’dır. Sekizinci faktör toplam değişken varyansının %6,683’ünü açıklamaktadır. Bir sonraki bölümde İMKB Ulusal 100 endeksi, dolar ve altın ortalama getirisi çıktı (bağımlı değişken), temel bileşen faktör analizinde elde edilen 8 faktör girdi (bağımsız değişkenler) olarak kullanılarak yarınki getirinin genel ortalama getiririnin altında mı yoksa üstünde mi olacağı tahmin edilmeye çalışılmıştır. 4.3. Yapay Sinir Ağı (YSA) Uygulaması Bu çalışmada İMKB Ulusal 100 endeksi, dolar ve altının yarınki ortalama getirisi çıktı (bağımlı değişken), temel bileşen faktör analizinde elde edilen FAC1_1, FAC2_1, FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 girdi (bağımsız 43 değişkenler) olarak kullanılarak yarınki getirinin genel ortalama getiririnin altında mı yoksa üstünde mi olacağı tahmin edilmeye çalışılmıştır. Analizde SPSS 16 programı kullanılmıştır. 02.01.1997 - 30.12.2011 tarihleri arasında toplam 2957 veri kullanılmış olup bu verilerin %69,8’i (2065 tanesi) öğrenme amaçlı, %30,2’si (892 tanesi) test amaçlı alınmıştır. Bu seçim tamamen tesadüfi yöntemle yapılmıştır. Şekil 21’de bağımsız değişkenlerin tahmini için kurulan yapay sinir ağında 3 katman yer almaktadır. Bu katmanlardan ilki girdi katmanı, son katman çıktı katmanı ve aradaki katmanda gizli katmandır. Girdi katmanında 8 nöron bulunmaktadır. Bunlar FAC1_1, FAC2_1, FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1’dir. Gizli katmanda 7 nöron bulunmaktadır. Son katmanda yani çıktı katmanında 6 nöron bulunmaktadır. Bunlar imkbort= 0, imkbort= 1, dolarort= 0, dolarort=1, altınort= 0, altınort= 1 nöronlarıdır. Getiri kategorisinde getiriyi, ise ortalama getiriyi göstermektedir. Ayrıca imkbort= 0 ortalamanın altında ve imkbort= 1 ise ortalamanın üzerinde getiriyi göstermektedir. Bu dolarort ve altınort değerleri içinde geçerlidir. Şekil 21’deki yapay sinir ağı mimarisinde gizli katmandaki aktivasyon fonksiyonu sigmoid ve çıktı katmanındaki aktivasyon fonksiyonu sigmoid olarak belirlenmiştir. Gizli katman ve gizli katmandaki düğüm sayısı belirli bir strateji olmadan deneme yanılma yöntemi ile belirlenmiştir. 44 Şekil 21 Yapay Sinir Ağı Mimarisi Tablo 7’de her bir nöron arasındaki bağlantıların ağırlıkları verilmiştir. Örneğin, girdi katmanındaki FAC1_1 nöronu ile gizli katmanın 1. nöronu (H(1;1)) arasındaki bağlantı ağırlık değerinin 0,621, girdi katmanındaki FAC2_1 nöronu ile gizli katmanın 2. nöronu (H(1;2)) arasındaki bağlantı ağırlık değerinin -0,206, girdi katmanındaki FAC3_1 nöronu ile gizli katmanın 4. nöronu (H(1;4)) arasındaki bağlantı ağırlık değerinin 1,276 olduğu görülmektedir. Ayrıca gizli katmanın 1. nöronu (H(1;1)) ile çıktı katmanının imkbort= 0 nöronu arasındaki bağlantı ağırlık değerinin -0,142, gizli 45 katmanın 2. nöronu (H(1;2)) ile çıktı katmanının imkbort= 1 nöronu arasındaki bağlantı ağırlık değerinin -0,359, gizli katmanın 3. nöronu (H(1;3)) ile çıktı katmanının dolarort= 1 nöronu arasındaki bağlantı ağırlık değerinin 0,049 ve gizli katmanın 5. Nöronu (H(1,5)) ile çıktı katmanının altınort= 0 nöronu arasındaki bağlantı değerinin -0.775 olduğu görülmektedir. Tablo 7 Nöronlar Arasındaki Bağlantı Ağırlıkları Tahmin Tahmin Edici Gizli Katman Çıktı Katmanı H(1:1) H(1:2) H(1:3) H(1:4) H(1:5) H(1:6) H(1:7) imkbort=0 imkbort=1 dolarort=0 dolarort=1 altınort=0 altınort=1 (Bias) Girdi Katmanı ,261 -,144 -,194 -,029 -,696 -,786 -,362 FAC1_1 ,621 ,040 -,079 ,661 ,517 FAC2_1 ,475 -,206 ,048 ,474 -,909 -,072 ,179 FAC3_1 ,964 -,875 ,521 1,276 ,093 1,421 -,851 FAC4_1 -,528 ,198 FAC5_1 ,180 -,183 ,365 -,346 -,400 ,558 ,548 ,117 -,096 ,512 -,895 -,782 -,847 ,509 FAC6_1 -,317 -,151 -,339 -,825 -,230 -,709 -,214 FAC7_1 -,305 ,203 -,147 -,345 ,058 -,426 ,213 FAC8_1 -,303 ,424 -,122 -,086 ,140 ,586 ,089 (Bias) -,065 ,416 ,427 -,376 ,265 -,225 H(1:1) -,142 ,167 -,164 ,104 ,071 -,309 H(1:2) ,108 -,359 -,188 -,073 ,085 -,090 H(1:3) -,657 ,338 ,049 -,149 -,093 ,077 Katman H(1:4) ,202 -,103 -,432 ,408 ,334 -,296 H(1:5) ,424 -,379 ,259 -,253 -,775 ,547 H(1:6) ,335 -,552 -1,363 1,409 -,248 ,340 H(1:7) ,031 -,282 ,462 -,288 ,083 ,084 Gizli Şekil 21 ve Tablo 7’de verilen YSA modelinin sonuçları imkbort için Tablo 8’de verilmektedir. Model günlük yatırım stratejisi izleyen yatırımcılara önemli bilgiler vermektedir. Tablo 8’de görüldüğü gibi YSA modeli eğitim sürecinde ortalama üstü getiriyi %54,0 oranında doğru tahmin etmektedir. Ayrıca Tablo 8’de modeli test eden 46 test örneği sonucunda görüldüğü gibi ortalama üstü getiriyi %51,2 oranında doğru tahmin etmektedir. Buradan şu sonuç çıkmaktadır. Yatırımcı FAC1_1, FAC2_1, FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 değişkenlerini modelde girdi olarak kullandığında yarınki getiriyi ortalamanın üzerinde (imkbort= 1) tahmin ediyorsa, yatırımcının ortalamanın üstü getiri elde etme olasılığı %51,2’dir. Yarınki getiriyi ortalamanın altında (imkbort= 0) tahmin ediyorsa, yatırımcının ortalamanın altı getiri elde etme olasılığı %57,9’dur. Tablo 8 Sınıflandırma Başarısı (imkbort) Tahmin Örnek Gözlem Eğitim 0 520 517 50,1% 1 473 555 54,0% 48,1% 51,9% 52,1% 0 265 193 57,9% 1 212 222 51,2% 53,5% 46,5% 54,6% Toplam Yüzde Test Toplam Yüzde 0 1 Doğruluk Yüzdesi Şekil 21 ve Tablo 7’de verilen YSA modelinin sonuçları dolarort için Tablo 9’da verilmektedir. Tablo 9’da görüldüğü gibi YSA modeli eğitim sürecinde ortalama üstü getiriyi %61,6 oranında doğru tahmin etmektedir. Ayrıca Tablo 9’da modeli test eden test örneği sonucunda görüldüğü gibi ortalama üstü getiriyi %65,4 oranında doğru tahmin etmektedir. Buradan şu sonuç çıkmaktadır. Yatırımcı FAC1_1, FAC2_1, FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 değişkenlerini modelde girdi olarak kullandığında yarınki getiriyi ortalamanın üzerinde (dolarort= 1) tahmin ediyorsa, yatırımcının ortalamanın üstü getiri elde etme olasılığı %61,6’dır. Yarınki getiriyi ortalamanın altında (dolarort= 0) tahmin ediyorsa, yatırımcının ortalamanın altı getiri elde etme olasılığı %53,1’dir. 47 Tablo 9 Sınıflandırma Başarısı (dolarort) Tahmin Örnek Gözlem 0 Eğitim 0 575 445 56,4% 1 401 644 61,6% 47,3% 52,7% 59,0% 0 217 192 53,1% 1 167 316 65,4% 43,0% 57,0% 59,8% Toplam Yüzde Test Toplam Yüzde 1 Doğruluk Yüzdesi Şekil 21 ve Tablo 7’de verilen YSA modelinin sonuçları altınort için Tablo 10’da verilmektedir. Tablo 10’da görüldüğü gibi YSA modeli eğitim sürecinde ortalama üstü getiriyi %19,0 oranında doğru tahmin etmektedir. Ayrıca Tablo 10’da modeli test eden test örneği sonucunda görüldüğü gibi ortalama üstü getiriyi %20,1 oranında doğru tahmin etmektedir. Buradan şu sonuç çıkmaktadır. Yatırımcı FAC1_1, FAC2_1, FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 değişkenlerini modelde girdi olarak kullandığında yarınki altın getirisini 1 olarak (ortalamanın üstü getiri) tahmin ederse bu tahmin güvenilir olmayacaktır. Ancak 0 olarak tahmin ederse (ortalamanın altı getiri) bu tahmin oldukça güvenilir olacaktır (%80,7). Tablo 10 Sınıflandırma Başarısı (altınort) Tahmin Örnek Gözlem Eğitim 0 972 168 85,3% 1 749 176 19,0% 83,3% 16,7% 55,6% 0 367 88 80,7% 1 349 88 20,1% 80,3% 19,7% 51,0% Toplam Yüzde Test Toplam Yüzde 0 1 Doğruluk Yüzdesi 48 V. BÖLÜM SONUÇ VE ÖNERİLER 5.1. Sonuç ve Öneriler Genel olarak sonuçlara baktığımıza tahmin edilen YSA modeli İMKB’ye ait getirinin ortalama getirinin üzerinde olacağını (imkbort=1) %51,2 oranında ve yarınki İMKB’ye ait getirinin ortalama getirinin altında olacağını (imkbort=0) %57,9 oranında tahmin etmiştir. Ayrıca yarınki dolar getirisinin, ortalama getirinin üzerinde olacağını (dolarort=1) %65,4 oranında ve yarınki dolar getirisinin, ortalama getirinin altında olacağını (dolar=0) %53,1 oranında tahmin etmiştir. Bunlara ek olarak yarınki altın getirisinin, ortalama getirinin üzerinde olacağını (altınort=1) %20,1 oranında ve yarınki altın getirisinin, ortalama getirinin altında olacağını (altınort=0) %80,7 oranında tahmin etmiştir. Bu çalışmanın sonuçları özellikle İMKB 100 endeks getirisi için zayıf formda piyasa etkinliği hipotezini (weak form market efficiency hypothesis) desteklemektedir. Bilindiği gibi bu hipotez geçmiş tarihsel veriler kullanılarak hisse sende getirilerinin tahmin edilemeyeceğini öngörür. Ancak dolar piyasası için bu hipotezin geçerli olduğu söylenemez. Benzer biçimde altın piyasası dikkate alındığında özellikle modelin ortalamanın altındaki getiriyi tahmin gücü oldukça yüksektir. Sonuç olarak yapay sinir ağları, istatistikî yöntemlerden farklı olarak, verinin özellikleri ile ilgili sağlanması gereken istatistikî varsayımlarda bulunmadığı gibi algoritma veya matematiksel model geliştirmeye de gerek duymaz. Veri içindeki ilişki kalıplarını ve desenleri tanıyarak öğrenir. Bu nedenle modelin kurulumu ve kullanımı açısından basit, açık ve esnektir. Günümüzde, bu özellikleri ile yapay sinir ağları, tahmin yöntemi olarak pek çok alanda kullanılmakta ve diğer yöntemlere tercih edilmektedir. Problemin yapısına uygun olarak kurulmuş ve eğitilmiş bir yapay sinir ağı, günümüzde kullanılan birçok tahmin metodundan çok daha iyi sonuçlar verecektir. Bu çalışmada kullanılan yöntemin tek tek hisse senetleri bazında uygulanması durumunda daha iyi sonuçlar alınabileceği düşünülmektedir. 49 KAYNAKÇA Aras, S. (2008). Yapay sinir ağlarına duyarlılık analizleri. Yüksek Lisans Tezi, Dokuz Eylül Üniversitesi Sosyal Bilimler Enstitüsü, 143s. Asilkan, Ö., Irmak, S. (2009). İkinci el otomobillerin gelecekteki fiyatlaarının yapay sinir ağları ile tahmin edilmesi. Süleyman Demirel Üniversitesi İktisadi ve İdari Bilimler Fakültesi Dergisi, C 14, S 2, 375-391. Ataseven, B. (2007). Satış öngörü modellemesi tekniği olarak yapay sinir ağlarının kullanımı: “Petkim’de uygulanması”. Yüksek Lisan Tezi, Celal Bayar Üniversitesi Sosyal Bilimler Enstitüsü, 118s. Balas, C. E., Koç, M. L. ve Tür, R. (2010). Artificial neural networks based on principal component analysis, fuzzy systems and fuzzy neural networks for preliminary design of rubble mound breakwaters. Applied Ocean Research, 32, 425–433. Batar, H. (2005). EEG işaretlerinin dalgacık analizi yöntemleri kullanarak yapay sinir ağları ile sınıflandırılması. Yüksek Lisans Tezi, Kahramanmaraş Sütçü İmam Üniversitesi Fen Bilimleri Enstitüsü, 89s. Bayır, F. (2006). Yapay sinir ağları ve tahmin modellemesi üzerine bir uygulama. Yüksek Lisan Tezi, İstanbul Üniversitesi Sosyal Bilimler Enstitüsü, 119s. Bayru, P. (2007). Elektronik basında tüketici tercihleri analizi: Yapay sinir ağları ile lojit modelin performans değerlendirmesi. Doktora Tezi, İstanbul Üniversitesi Sosyal Bilimler Enstitüsü, 210s. Boyacıoğlu, M., Kara, Y. (2007). Türk bankacılık sektöründe finansal güç derecelerinin tahmininde yapay sinir ağları ve çok değişkenli istatistiksel analiz tekniklerinin performanslarının karşılaştırılması. Dokuz Eylül Üniversitesi İktisadi ve İdari Bilimler Fakültesi Dergisi, C.22, S.2, 197-217. Civalek, Ö., Ülker, M. (2004). Dikdörtgen plakaların doğrusal olmayan analizinde yapay sinir ağı yaklaşımı. İnşaat Mühendisleri Odası (İMO) Teknik Dergi, 31713190. Çuhadar, M., Kayacan, C. (2005). Yapay sinir ağları kullanılarak konaklama işletmelerinde doluluk oranı tahmini: Türkiye’deki konaklama işletmeleri üzerine bir deneme. Anatolia: Turizm Araştırmaları Dergisi, Cilt 16, Sayı 1, 1-7. Dombaycı, Ö. A., Gölcü, M. (2009). Daily means ambient temperature prediction using artificial neural network method: A case study of Turkey. Renewable Energy, 34, 1158–1161. 50 Efe, Ö., Kaynak, O. (2006). Yapay Sinir Ağları ve Uygulamaları. İstanbul: Boğaziçi Üniversitesi Yayıları. Eletter, S. F., Yaseen, S. G. (January 2010). Applying neural networks for loan decisions in the Jordanian Commercial Banking System. International Journal of Computer Science and Network Security, Vol 10, No 1. Elmas, Ç. (2003). Yapay Sinir Ağları Kuram Mimari Uygulama. İstanbul: Seçkin Yayıncılık. Erilli, N. A., Eğrioğlu, E., Yolcu, U., Aladağ, Ç. H. ve Uslu, V. R. (2010). Türkiye’de enflasyonun ileri ve geri yapay sinir ağlarının melez yaklaşımı ile öngörüsü. Doğuş Üniversitesi Dergisi, 11(1), 42-55. Güneri, N., Apaydın, A. (2004). Öğrenci başarılarının sınıflandırılmasıda lojistik regresyon analizi ile sinir ağları yaklaşımı. Gazi Üniversitesi Ticaret ve Turizm Eğitim Fakültesi Dergisi, 1, 170-188. Güngör, E. (2007). Yapay sinir ağları yardımı ile makine arızalarının önceden tahmin edilmesi. Yüksek Lisans Tezi, Kocaeli Üniversitesi Sosyal Bilimler Enstitüsü, 74s. Güngör, İ., Çuhadar, M. (2005). Antalya iline yönelik Alman turist talebinin yapay sinir ağları yöntemiyle tahmini. Gazi Üniversitesi Ticaret ve Turizm Eğitim Fakültesi Dergisi, 1, 84-98. Kaya, İ., Oktay, S. ve Engin, O. (2005). Kalite kontrol problemlerinin çözümünde yapay sinir ağlarının kullanımı. Erciyes Üniversitesi Fen Bilimleri Enstitüsü Dergisi, 21, (1-2), 92-107. Kaynar, O., Taştan, S. ve Demirkoparan, F. (2010). Ham petrol fiyatlarının yapay sinir ağları ile tahmini. Ege Akademik Bakış, 10(2), 559-573. Kılağız, Y., Baran, A. (2009). Bilgi edinme hakkı yasası çerçevesinde yapılan elektronik başvuruların yapay sinir ağları ile sınıflandırılması. Atatürk Üniversitesi İktisadi ve İdari Bilimler Dergisi, Cilt 23, Sayı 4, 27-41. Kıraç, N. (2011). Türkiye’de faaliyet gösteren ticari bankaların finansal risklerinin yapay sinir ağları yaklaşımı ile belirlenmesi. Yüksek Lisans Tezi, Çukurova Üniversitesi Sosyal Bilimler Enstitüsü, 40s. Koleyni, K. (2009). Using artfical neural Networks for income convergence. Global Journal of Business Research, Volume 3, Number 2. Krieger, C. (1996). Neural Networks in Data Mining. 51 Kutlu, B., Badur, B. (Haziran 2009). Yapay sinir ağları ile borsa endeksi tahmini. İstanbul Üniversitesi İşletme İktisadi Enstitüsü Dergisi-Yönetim, Yıl 20, Sayı 63, 25-40. Li, E. Y. (1994). Artifical neural Networks and their business aplications. Information & Management, 27, 303-313. Öztemel, E. (2006). Yapay Sinir Ağları. İstanbul: Papatya Yayıncılık. Papatla, P., Zahedi, M. F. ve Zekic-Susac, M. (2002). Leveraging the strengths of choice models and neural networks: A multiproduct comparative analysis. Decision Sciences, Volume 33, Number 3, 433-468. Saalasti, S. (2003). Neural Networks for Heart Rate Time Series Analysis. Jyväskylä: University of Jyväskylä. Sağıroğlu, Ş., Beşdok, E., Erler, M. (2003). Mühendislikte Yapay Zeka Uygulamaları. Kayseri: Ufuk Kitap Saraç, T. (2004). Yapay sinir ağları. Seminer Projesi, Gazi Üniversitesi Endüstri Mühendisliği Bölümü Ana Bilim Dalı, 71s. Şen, Z. (2004). Yapay Sinir Ağları İlkeleri. İstanbul: Su Vakfı. Tağluk, M. E., Akın, M. ve Sezgin, N. (2010). Classıfıcation of sleep apnea by using wavelet transform and artificial neural networks. Expert Systems with Applications, 37, 1600–1607. Tolon, M., Tosunoğlu, N. (2008). Tüketici tatmini verilerinin analizi: Yapay sinir ağları ve regresyon analizi karşılaştırılması. Gazi Üniversitesi İktisadi İdari Bilimler Fakültesi Dergisi, 10/2, 247-259. Torun, T. (2007). Finansal başarısızlık tahmininde geleneksel istatistiki yöntemlerle yapay sinir ağlraının karşılaştırılması ve sanayi işletmeli üzerinde uygulama. Doktora Tezi, Erciyez Üniversitesi Sosyal Bilimler Fakültesi, 178s. Vashisth, R., Chandara, A. (2010). Predicting stcok returns in nifty index: An application of artificial neural network. International Research Journal of Finance and Economics, ISSN 1450-2887, Issue 49, 15-24. Vural, B. B. (2007). Yapay sinir ağları ile finanasal tahmin. Yüksek Lisans Tezi, Ankara Üniversitesi Sosyal Bilimler Enstitüsü, 152s. Yazıcı, M. (2007). Bankalarda kobi kredilerini değerlendirmeye ilişkin bir yaklaşım: Yapay sinir ağları. Doktora Tezi, Kadir Has Üniversitesi Sosyal Bilimler Enstitüsü, 150s. 52 Yıldırım, Ş. (2002). Artificial neural network applications to control. Erciyes Üniversitesi Fen Bilimleri Enstitüsü Dergisi, Cilt 18, Sayı 1-2. Yıldız, B., Yezegel, A. (2010). Fundamental analysis with artifical neural network. The International Journal of Business and Finance Research, Volume 4, Number 1. Yıldız, Ö. (2006). Döviz kuru tahmininde yapay sinir ağlarının kullanımı. Yüksek Lisans Tezi, Eskişehir Osmangazi Üniversitesi Sosyal Bilimler Enstitüsü, 148s. Yurtoğlu, H. (2005). Yapay sinir ağları metodolojisi ile öngörü modellemesi: Bazı makroekonomik değişkenler için Türkiye örneği. Uzmanlık Tezi, Devlet Planlama Teşkilatı-Uzmanlık Tezleri, Yayın No:2683, 103s. 53 ÖZGEÇMİŞ Adı Soyadı : Zuhat ERGİN Doğum Tarihi : 19.10.1985 Doğum Yeri : Diyarbakır/Ergani Email adresi : [email protected] EĞİTİM DURUMU Yüksek Lisans : 2007-2012 Çukurova Üniversitesi/ Adana Sosyal Bilimler Enstitüsü Ekonometri Anabilim Dalı Lisans : 2003-2007 Çukurova Üniversitesi/Adana Fen-Edebiyat Fakültesi Matematik Bölümü Lise : 1999-2002 Çağrıbey Lisesi/Adana