tc selçuk üniversitesi fen bilimleri enstitüsü veri madenciliğinden

advertisement
T.C.
SELÇUK ÜNİVERSİTESİ
FEN BİLİMLERİ ENSTİTÜSÜ
VERİ MADENCİLİĞİNDEN BİRLİKTELİK
KURALI İLE ONKOLOJİ VERİLERİNİN
ANALİZ EDİLMESİ: MERAM TIP
FAKÜLTESİ ONKOLOJİ ÖRNEĞİ
Adnan KARAİBRAHİMOĞLU
DOKTORA TEZİ
İstatistikAnabilim Dalı
Ağustos-2014
KONYA
Her Hakkı Saklıdır
TEZ BİLDİRİMİ
Bu tezdeki bütün bilgilerin etik davranış ve akademik kurallar çerçevesinde elde
edildiğini ve tez yazım kurallarına uygun olarak hazırlanan bu çalışmada bana ait
olmayan her türlü ifade ve bilginin kaynağına eksiksiz atıf yapıldığını bildiririm.
DECLARATION PAGE
I hereby declare that all information in this document has been obtained and
presented in accordance with academic rules and ethical conduct. I also declare that, as
required by these rules and conduct, I have fully cited and referenced all material and
results that are not original to this work.
İmza
Adnan KARAİBRAHİMOĞLU
Tarih: 12/08/2014
iii
ÖZET
DOKTORA TEZİ
VERİ MADENCİLİĞİNDEN BİRLİKTELİK KURALI İLE ONKOLOJİ
VERİLERİNİN ANALİZ EDİLMESİ: MERAM TIP FAKÜLTESİ ONKOLOJİ
ÖRNEĞİ
Adnan KARAİBRAHİMOĞLU
Selçuk Üniversitesi Fen Bilimleri Enstitüsü
İstatistik Anabilim Dalı
Danışman: Prof. Dr. Aşır GENÇ
2014, 126 Sayfa
Jüri
Prof. Dr. Aşır GENÇ
Doç. Dr. Coşkun KUŞ
Prof. Dr. Melih Cem BÖRÜBAN
Doç. Dr. Buğra SARAÇOĞLU
Yrd. Doç. Dr. Aydın KARAKOCA
Teknoloji ile birlikte yaşamın her alanında artan veri miktarı “veri ambarları” kavramını
gündeme getirmiştir. Veri madenciliği, ortaya çıkan çok büyük veri kümelerinin oluşturduğu veri
ambarlarının analiz edilerek yararlı bilgiler elde edilmesini sağlayan yaklaşımlar bütünüdür. Veri
miktarının büyük olduğu ve her geçen gün arttığı alanlardan birisi de sağlık sektörüdür. Her gün binlerce
hastaya ait gerek kişisel gerek tıbbi veriler kayıt altına alınmakta ve bu enformasyon depolanmaktadır.
Ancak bu verilerin çok az bir kısmı analiz edilebilmekte ve geriye kalan kısmından faydalı olabilecek
enformasyon elde edilememektedir. Özellikle hastane yönetim sistemleri, tedavi yöntemleri ve koruyucu
hekimlik konusunda maliyetleri azaltıcı yöntemlerin geliştirilmesi için ambardaki verilerin analiz
edilmesi gerekmektedir. Klasik istatistiksel yöntemler ile büyük veri kümelerini analiz etmek zor olduğu
için, çeşitli veri madenciliği yöntemleri geliştirilmiş ve bilgisayar programcılığı yardımıyla analiz yapmak
daha uygulanabilir hale gelmiştir. Birliktelik kuralı, sağlık alanında yeni kullanılan analiz yöntemlerinden
birisi olup; değişkenlerin birlikte görülme olasılıkları üzerinden örüntü oluşturmak ve buna bağlı olarak
destek ve güven değerlerini hesaplamak için kullanılmaktadır. Bu çalışmada, Meram Tıp Fakültesi
Onkoloji Hastanesine ait retrospektif çalışma sonucu elde edilen göğüs kanseri verileri üzerinde
APRIORI algoritması uygulanacak ve verilerdeki birliktelik örüntüleri ortaya çıkarılmaya çalışılacaktır.
Anahtar Kelimeler: Apriori algoritması, Birliktelik kuralı, Destek, Güven, Veri
madenciliği
iv
ABSTRACT
Ph.D. THESIS
ANALYZING BREAST CANCER DATA USING ASSOCIATION RULE
MINING: MERAM FACULTY OF MEDICINE ONCOLOGY DEPARTMENT
Adnan KARAİBRAHİMOĞLU
THE GRADUATE SCHOOL OF NATURAL AND APPLIED SCIENCE OF
SELÇUK UNIVERSITY
DOCTOR OF PHILOSOPHY
IN STATISTICS
Advisor: Prof. Dr. Aşır GENÇ
2014, 126Pages
Jury
Prof. Dr. Aşır GENÇ
Assoc. Prof. Coşkun KUŞ
Prof. Dr. Melih Cem BÖRÜBAN
Assoc. Prof. Buğra SARAÇOĞLU
Asst. Prof. Aydın KARAKOCA
The amount of data, increasing together with the technology, has brought the concept of “data
warehouse” in every field of life. Data Mining is a set of approaches analyzing these data warehouses
formed by very large data sets and allows to gather useful information. One of the fields where the
amount of data is large and getting larger everyday is the health sector. Many personal and medical data
belonging to thousands of patients are recorded and stored. However, small part of these data can be
analyzed and the remaining part may not be helpful to obtain useful information. The data in warehouses
must be analyzed to improve the methods for hospital management systems, treatment and health care
systems to reduce the costs. Since analyzing large data sets using classical statistical methods is difficult,
various data mining methods have been developed and these methods have become more feasible with the
help of certain softwares. Association rule is an important data-mining task to find hidden patterns
between the variables and used recently in the field of healthcare. In this study, we will calculate the
support and confidence of the associations in data set. APRIORI algorithm will be applied onto the
retrospectively obtained breast cancer data belonging to Oncology Hospital of Meram Faculty of
Medicine.
Keywords: Apriori Algorithm, Association Rule, Confidence, Data Mining, Support
v
ÖNSÖZ
“İlim ilim bilmektir
İlim kendin bilmektir
Sen kendin bilmezsen
Bu nice okumaktır”
dizeleriyle “Beşikten mezara kadar ilim öğreniniz” sözünün açılımını yapmış olan
Yunus Emre, içimdeki öğrenme duygusunu harekete geçirerek bugünlere getirdi. Fakat
bu yolculuk tek başına olmazdı. Bir eğitim süreci olduğundan her zaman minnetle
anacağım hocalarım oldu.
Yüksek Lisans döneminden danışman hocam Prof. Dr. Hamza EROL’a; doktora
eğitimine başladığımda ilk danışmanım olan Prof. Dr. Necati YILDIZ’a; Selçuk
Üniversitesi’nde İstatistiğin kapılarını bana açan ve akademik dünyaya girebilmem için
elinden geleni yapan danışmanım ve değerli hocam Prof. Dr. Aşır GENÇ’e
teşekkürlerimi borç bilirim.
Bu tez, nasıl bir konu üzerinde çalışsam diye düşünürken işyerindeki bir
arkadaşımın fikir vermesiyle ortaya çıktı. Bunun üzerine makale taramaya ve konuyu
öğrenmeye başladım. Şu an geldiğim seviye istediğim düzeyde olmasa da üç yıl
öncesine göre kendimi ilerlemiş hissediyorum.
Ayrıca, Tıp Eğitimi ve Bilişimi Anabilim Dalı başkanı Doç. Dr. Nazan
KARAOĞLU’na doktora eğitimi boyunca desteklerini esirgemedikleri; veri kümesini
analizler için benimle paylaşan değerli dostum Tıbbi Onkoloji bölüm başkanı Prof. Dr.
Melih Cem BÖRÜBAN’a çok teşekkür ederim.
Ve tabi ki ailem…
Başta dualarıyla manevi olarak yardımını hiçbir zaman esirgemeyen annem;
kendileri ile daha fazla zaman geçirmem gerekirken tezle ilgilenmek zorunda kalarak
vakit ayırmadığım çocuklarım Zeynel, Ceyda ve Onur; yıllardan beri tüm sıkıntılara
benimle beraber göğüs geren, çoğu zaman beni sırtlayan, beni cesaretlendiren desteğini
her zaman yanımda hissettiğim çok sevgili eşim Nesrin; sizlere çok ama çok teşekkür
ediyorum.
Adnan KARAİBRAHİMOĞLU
KONYA-2014
vi
İÇİNDEKİLER
ÖZET .............................................................................................................. iv
ABSTRACT .....................................................................................................v
ÖNSÖZ ........................................................................................................... vi
İÇİNDEKİLER ............................................................................................. vii
SİMGELER VE KISALTMALAR ............................................................... ix
1.
GİRİŞ .............................................................................................1
2.
KAYNAK ARAŞTIRMASI...........................................................3
3.
MATERYAL VE YÖNTEM .........................................................5
3.1.
Veri Madenciliği’nin Tarihçesi ........................................................5
3.2.
Enformasyon Kavramı .....................................................................7
3.3.
Keşfedici Veri Analizi .....................................................................8
3.4.
Veri Tabanları................................................................................ 11
3.5.
Veri Ambarları............................................................................... 13
3.5.1. Veri Ambarı Oluşturulması ............................................................ 14
3.5.2. Veri Ambarının Özellikleri ............................................................ 16
3.6.
Veri Madenciliği Süreci ................................................................. 19
3.6.1. Verilerin Hazırlanması ................................................................... 22
3.6.2. Veri Madenciliği Yönteminin Uygulanması ................................... 25
3.6.3. Sonuçların Değerlendirilmesi ve Sunulması ................................... 28
3.6.4. Veri Madenciliği Uygulama Programları ....................................... 35
3.6.5. Veri Madenciliği Uygulamasında Karşılaşılan Sorunlar ................. 35
3.7.
Veri Madenciliği Yöntemleri ......................................................... 36
3.7.1. Sınıflandırma Yöntemleri............................................................... 37
3.7.1.1. Karar Ağaçları ....................................................................... 38
3.7.1.2. Bayes/Naïve-Bayes Sınıflandırma ......................................... 41
3.7.1.3. k-En Yakın Komşu (k-ortalama) algoritması .......................... 42
3.7.1.4. k-medoid ............................................................................... 43
3.7.1.5. Destek Vektör Makineleri (SVM) .......................................... 43
3.7.1.6. Yapay Sinir Ağları (Artificial Neural Networks) ................... 44
3.7.1.7. Genetik Algoritma ................................................................. 46
3.7.1.8. Bellek Temelli Nedenleme (Memory Based Reasoning) ........ 47
3.7.1.9. Regresyon ............................................................................. 48
3.7.2. Kümeleme Yöntemleri ................................................................... 48
3.7.2.1. Hiyerarşik Yöntemler ............................................................ 51
3.7.2.2. Bölümlemeli Yöntemler ........................................................ 51
3.7.2.3. K-Ortalamalar (K-Means) Bölümleme Yöntemi..................... 52
3.7.2.4. K-Medoids Bölümleme Yöntemi ........................................... 53
3.7.2.5. PAM Algoritması .................................................................. 54
3.7.2.6. CLARA Algoritması ............................................................. 54
3.7.2.7. CLARANS Algoritması ........................................................ 55
vii
3.7.3.
3.7.4.
3.7.5.
3.7.6.
3.8.
3.8.1.
3.8.2.
3.8.3.
Yoğunluğa Dayalı Yöntemler ........................................................ 55
Izgara Tabanlı Yöntemler .............................................................. 56
Dalga Kümeleme (Wave Cluster)................................................... 57
Kohonen Ağlar (Kohonen Networks) ............................................. 57
Birliktelik Kuralı (Association Rule Mining) ................................. 58
İlişki Analizi (Affinity Analysis) .................................................... 58
Market Sepeti Analizi (Market Basket Analysis) ............................ 59
Destek, Güven ve Kaldıraç Kavramları (Support, Confidence
and Lift)......................................................................................... 61
3.8.4. Büyük Nesne Kümeleri (Large Itemsets)........................................ 63
3.8.5. Örüntü ve Kural Çıkarma (Pattern Recognition and Rule
Extraction) ..................................................................................... 64
3.8.6. Algoritmalar .................................................................................. 65
3.8.6.1. AIS Algoritması .................................................................... 65
3.8.6.2. SETM Algoritması ................................................................ 65
3.8.6.3. Apriori Algoritması ............................................................... 66
3.8.6.4. Apriori-TID Algoritması ....................................................... 68
3.8.6.5. Paralel Veri Madenciliğinde Birliktelik (Parallel Data
Mining) ................................................................................ 69
3.8.7. Negatif Birliktelik Kuralı (Negative Association Rule) .................. 69
3.9.
Önerilen İlginçlik Ölçütü ............................................................... 75
3.10.
Genelleştirilmiş Birliktelik Kuralları (Generalized Rule Extraction) ..
..................................................................................................... 78
3.11.
Birliktelik Kuralı Uygulama Alanları ............................................. 80
3.12.
Veri Madenciliği ve Sağlık Sektörü Uygulamaları ......................... 81
4.
ARAŞTIRMA SONUÇLARI VE TARTIŞMA .......................... 83
4.1.
Kanser ve meme kanseri ................................................................ 83
4.2.
Verinin Hazırlanması ..................................................................... 85
4.2.1. Analizler İçin Paket Programlar ..................................................... 85
4.2.2. SPSS Clementine ile Veri Madenciliği ........................................... 85
4.2.2.1. Modelleme ............................................................................ 87
4.2.2.2. Clementine ve Association Rules........................................... 89
4.2.2.3. Apriori Kural Keşfi ............................................................... 90
4.3.
Teze İlişkin Veriler ........................................................................ 91
4.4.
Bulgular ......................................................................................... 93
5.
SONUÇLAR VE ÖNERİLER ................................................... 104
5.1.
5.2.
Sonuçlar ...................................................................................... 104
Öneriler ....................................................................................... 106
KAYNAKLAR ............................................................................................. 107
EKLER ......................................................................................................... 115
6.
ÖZGEÇMİŞ ............................................................................... 116
viii
SİMGELER VE KISALTMALAR
ARM:
BKA:
CARMA:
CCD:
CCPD:
CEMI:
CLARA:
CLARANS:
CLIQUE:
DBMS:
DBSCAN:
DD:
DENCLUE:
DVM:
EDA:
GRI:
HRA:
IDD:
KDD:
KVA:
MAP:
MBR:
OCD:
OLAP:
PAM:
PAR:
PCA:
PDM:
RBF:
RDBMS:
RVM:
SOM:
SVM:
TID:
VM:
YSA:
Association Rule MiningBiçimsel Kavram Analizi
Continuous Association Rule Mining Algorithm
Count Distribution
Common Candidate Partitioned Database
Clementine External Module Interface
Clustering LARge Applications (Geniş Uygulamaların
Kümelenmesi)
Clustering Large Applications based on RANdomized Search
(RasgeleAramaya Dayalı Geniş Uygulamaların Kümelenmesi)
Clustering in Quest
Database Management Systems
Density Based Spatial Clustering of Applications with Noise
Data Distribution
Algoritması DENsity Based CLUestEring
Destek Vektör Makineleri
Explanatory Data Analysis
Generalized Rule Induction
Hash-based Parallel Mining of Association Rules
Intelligent Data Distribution
Knowledge Discovery from Data Mining (Veri Tabanlarından
Bilgi Keşfi)
Keşfedici Veri Analizi
Maximum A Posteriori Classification
Memory Based Reasoning (Bellek Temelli Nedenleme)
Off-line Candidate Determination
On-Line Analytical Processing
PartitioningAroundMedoids (Temsilciler Etrafında Bölümleme)
Parallel Association Rule
Principal Component Analysis
Parallel Data Mining
Radial Base Function
Relational Database Management Systems
Relevance Vector MachineSelf OrganizingMap
Support Vector Machines
Transaction Identification
Veri Madenciliği
Yapay Sinir Ağları
ix
1
1. GİRİŞ
İstatistik ve bilgi sistemlerinin karar sistemleri ile olan etkileşimi dünya
dinamiklerini, ülkeleri, sektör, alt sektör ve firmaları önemli düzeyde etkilemektedir. Bu
etkilerin ortaya çıkarılması ve yorumların içselleştirilmesi bilimsel katma değeri yüksek
bir olgudur (Güvenen, 2011).
Önceki çağların tek bir adı olmasına karşın içinde bulunduğumuz çağ için birçok
isim kullanılmaktadır. "Enformasyon Çağı”, “Teknoloji Çağı”, Bilgisayar Çağı”
örneklerden birkaçıdır. Teknoloji ilerledikçe bilgisayar kullanımı artmakta, bu artışa
paralel olarak ta “veriler” oluşmaktadır. Veri miktarındaki hızlı artış, depolama
sorunlarını beraberinde getirmekte ve her geçen gün depolama ünitelerinin daha yüksek
kapasiteli ve daha hızlı bir yapıya sahip olmasını gerektirmektedir. Bu durumda iki
temel sorun karşımıza çıkmaktadır. Birincisi, depolanan verilerin güvenlik sorunu;
ikincisi ise arşivlenen veri yığınları ile nelerin yapılacağıdır. Veritabanı denilen bu
yığınların içerisinde belki de stratejik öneme sahip bilgiler gizli olabilir. O halde, bir
sürü ağacın olduğu bir yerde orman hakkında ne gibi anlamlı sonuçlar çıkarılabilir?
Sorunun cevabı veri madenciliğidir. Dünya çapındaki yenilikçi organizasyonlar
veya işletmeler müşterilerinin şikâyetlerini değerlendirmek, ürünlerini yeniden
düzenlemek veya kayıplarını en aza indirgemek için kısacası gelirleri artırmak,
masrafları azaltmak için veri madenciliğini kullanmaktadırlar (Edelstein, 1999).
Veri madenciliği, veriler arasındaki ilişkiyi bulup geçerli tahminler yapmak ve
model ortaya koymak için çeşitli veri analiz yöntemlerini kullanan bir süreçtir. İlk adım,
veriyi tanımlamaktır. İstatistiksel özelliklerini (örneğin; ortalama veya standart sapma),
grafik veya şekiller yardımıyla görsel yapısını ve değişkenler arasındaki potansiyel
olarak anlamlı ilişkileri ortaya koymaktır. Veriyi tanımlamak yalnız başına planımızı
harekete geçirmez. İkinci aşama, tahminleyici bir model oluşturmaktır. Model, orijinal
örneğin haricindeki veriler üzerinde test edilir. İyi bir model hiçbir zaman gerçekle
karıştırılmamalıdır fakat sonuçları anlamak açısından çok faydalı olacaktır. Son
basamak ise modelin deneysel olarak doğrulanmasıdır (Alpaydın, 2000).
Bu çalışmada genel olarak veri madenciliği yöntemleri konusu ele alınacaktır.
Çalışmanın ikinci bölümünde veri madenciliği yöntemleri ve özellikle birliktelik
kuralının gelişimi ve literatürdeki uygulamaları üzerinde durulacaktır. Üçüncü bölümde
veri madenciliği tanımı, tarihsel seyri, ilişkili olduğu disiplinler ve yöntemleri geniş
2
olarak anlatılacaktır. Ayrıca sınıflandırma analizi başlığı altında karar ağaçları (decision
trees), yapay sinir ağları (artificial neural networks), k-en yakın komşu (k-nearest
neighbour) ve kümeleme analizi başlığı altında birliktelik kuralı (association rule), kortalama (k-means algorithm) algoritması yöntemleri detaylı olarak anlatılacaktır.
Dördüncü bölümde hastane verileri ile birliktelik kuralı uygulaması yapılacak ve
sonuçları ortaya konulacaktır. Son bölümde ise çalışmaya ait sonuç ve önerilere yer
verilecektir.
3
2. KAYNAK ARAŞTIRMASI
Veri madenciliğinin tarihi J. Tukey’nin (1977) ortaya attığı Keşfedici Veri
Analizi (Exploratory Data Analysis) çalışmalarına kadar dayanır. Klasik istatistiksel
yöntemlerin katı varsayımları nedeniyle veri setlerinin yeterince analiz edilemediğinden
hareketle yeni teknikler ortaya atılmış ve veri örüntüleri arasındaki ilişkilerin ortaya
çıkarılması için her geçen gün sağlam (robust) ve keşfedici yöntemler geliştirilmiştir.
KVA (EDA) teknikleri için Tukey (1977) ve Hoaglin et al. (1983)’e, sağlam (robust)
teknikler için ise yine Hoaglin et al. (1983) ve Huber (1981)’e başvurulabilir. 90lı
yıllarda bilgisayar teknolojilerinin de gelişmesi ile birlikte bilgisayar mühendisleri
tarafından “veri madenciliği” kavramı ortaya atıldı. Daha önceki dönemlerde taramalar
oldukça uzun sürüyordu fakat istenilen verilere ulaşmak mümkündü. Bu nedenle, büyük
miktarda veriler üzerinde yapılan işlemler için veri taraması (data dredging), veri
yakalama (data fishing), bilgi çıkarımı (knowledge extraction), örüntü analizi (pattern
analysis) veya veri arkeolojisi (data archeology) gibi isimler kullanılmıştır. Keşfedici
Veri Analizi kavramıyla birlikte Veri Tabanlarından Bilgi Keşfi (Knowledge Discovery
from Data Mining-KDD) kavramı gelişmiş ve bu haliyle kullanılmaya devam edilmiştir.
Kimileri veri madenciliği ile KDD’yi eş anlamlı görürken kimileri ise veri
madenciliğini bilgi keşfi sürecinin bir adımı olarak görmektedirler.
Veri madenciliği çalışmaları geniş haliyle Fayyad et al.(1996) tarafından ortaya
konulmuş ve bilgi keşfi konusunda yeni teknikler geliştirmişlerdir. Fayyad “veri
madenciliği,
verideki
geçerli,
alışılmışın
dışında,
kullanışlı
ve
anlaşılabilir
örüntülerin(pattern) belirlenmesi sürecidir” tanımını yapmaktadır. Daha çok regresyon
çalışmaları ile veri madenciliğine katkıda bulunan Friedman (1997) ise “veri
madenciliği, geniş veri tabanlarında bilinmeyen ve beklenmeyen bilgi örüntülerini
araştıran bir karar destek sürecidir” şeklinde bir tanım getirmektedir. Aynı şekilde,
Zekulin (1997), Ferruza (1998), John (2009) gibi veri madenciliği konusunda çalışan
önemli isimler de aynı yönde tanımlar getirmişlerdir.
Veri madenciliğinde en önemli iki analiz sınıflandırma analizi ve kümeleme
analizidir. Sınıflandırma analizi, istatistiğin birçok dalında çalışmalar yapmış olan
Fisher (~1920)’in çalışmalarına dayanır. Sınıflandırma analizi tekniklerinden olan
yapay sinir ağları konusu Anderson (1977), Kohonen (1977) ve Hopfield (1982)
tarafından geliştirilmiştir. Dasarathy (1991) ise k-en yakın komşu algoritmaları üzerinde
çalışmış, Shakhnarovish ve Darrel (2005) bu algoritmayı daha da geliştirmişlerdir.
4
Kümeleme analizi aynı tip verilerin bir arada bulunarak gruplandırılması temeline
dayanan bir analiz yöntemidir. Sibson (1977)’ın çalışmaları ile başlayan yöntem, Ng ve
Han (1994) tarafından CLARANS tekniği olarak, ayrıca Zhang (1996) tarafından
BIRCH tekniği şeklinde geliştirilerek günümüze kadar gelmiştir. Kümeleme analizi
yöntemlerinden olan ve bu tezde uygulamasını göstereceğimiz teknik, birliktelik kuralı
(Association Rule) dır. 1994 yılında IBM Almaden Araştırma Merkezi’nde Agrawal ve
Srikant tarafından geliştirilmiştir.
5
3. MATERYAL VE YÖNTEM
3.1. Veri Madenciliği’nin Tarihçesi
İkinci Dünya Savaşı’nın en hareketli ve kızıştığı dönemlerde askeri amaçlı, şifre
çözmeye yarayan bir makine geliştirildi. ENIAC adı verilen makine, daha sonraları von
Neumann (1945) mimarisi ile geliştirilerek 80’lerde kişisel kullanım (PC) makinelerine
kadar gelişti. Büyük alan kaplayan, tonlarca ağırlığa sahip yüzlerce tüp ile çalışan
ENIAC’tan artık avuç içine sığacak kadar küçülen, fakat hızı ve işlem kapasitesi çok
yüksek olan bilgisayarlara ulaşıldı. Günümüz bilgisayarları hala aynı mimari mantığıyla
çalışmaktadır. Dolayısıyla daha önceki yıllarda çeşitli makineler geliştirilmesine karşın,
bilgisayarın atası ENIAC-EDVAC kabul edilmektedir. Başlarda hızlı hesap yapması
için tasarlanan bilgisayarlar zamanla bilgi depolamak zorunda kaldılar. PunchCard
(Delikli Kart) ile başlayan hafıza ünitelerini disketler, CD’ler, DVD’ler, taşınabilir flash
bellekler izledi. Depolama kapasitesi son derece arttı. Günümüzde depolama
ünitelerinin kapasitesi “terabayt”lar şeklinde ifade ediliyor. 1 TB, yaklaşık 106 MB’a ve
o da yaklaşık 8*1012 bit’lik bilgiye karşılık gelmektedir. İlerleyen yıllarda TB ifadesi de
çok küçük kalacak ve yeni üniteler geliştirilecektir.
Ülkemizde ise ilk bilgisayar IBM-650 olup, yol hesapları yapması için 1960
yılında Karayolları Genel Müdürlüğü tarafından getirilmiştir. Bunu diğer kurumlar ve
çeşitli üniversiteler takip etmiştir. Son yapılan araştırmalara göre yaklaşık %35 oranında
hanelerde bilgisayar ve %42 oranında internet kullanımı vardır. Resmi kurumların
tamamı bilgisayar ve internet kullanımına sahipken girişimlerde ise %92 lik bir oranda
bilgisayar kullanımı ve internet erişimi mevcuttur. Teknolojiyi kullanmak açısından
ülkemiz, birçok dünya ülkesi ile paralel gitmektedir.
Modern çağda insanın etkileşim içinde olduğu her alanda bilgisayarlar ve
internet yoğunluklu bir şekilde kullanılmaktadır. Her alışverişte, her bankacılık
işleminde, her telefon kullanımında veya her medya kaynaklarına ulaşmada veriler
oluşmaktadır. Sadece uydu ve diğer uzay araçlarından elde edilen görüntülerin saatte 50
gigabyte
düzeyinde
olması,
bu
artışın
boyutlarını
daha
açık
bir
şekilde
göstermektedir.1995 yılında birincisi düzenlenen Knowledge Discovery in Databases
konferansı bildiri kitabı sunuşunda, enformasyon teknolojilerinin oluşturduğu veri
dağları, aşağıdaki cümleler ile vurgulanmaktadır.
6
“Dünyadaki enformasyon miktarının her 20 ayda bir ikiye katlandığı tahmin
edilmektedir. Bu ham veri seti ile ne yapmamız gerekmektedir? İnsan gözleri bunun
ancak çok küçük bir kısmını görebilecektir. Bilgisayarlar bilgelik pınarı olmayı vaat
etmekte, ancak veri sellerine neden olmaktadır. “
Dünyadaki büyük işletmelerin veri tabanlarının belirlenmesi amacı ile Winter
Corporation tarafından yapılan bir araştırmada, Sears, Roebuckand Co.’nun sadece
karar destek amaçlı kullanılan veri tabanının 1998 yılında 4630 gigabyte’a eriştiği
görülmektedir. Veri tabanı sistemlerinin artan kullanımı ve hacimlerindeki bu
olağanüstü artış, organizasyonları elde toplanan bu verilerden nasıl faydalanılabileceği
problemi ile karşı karşıya bırakmıştır (Yaralıoğlu, 2013).
Bilgisayar sistemlerinin her geçen gün ucuzlaması ve güçlerinin artması, daha
büyük miktardaki veriyi işlemeleri ve depolamaları anlamına gelmektedir. Ayrıca,
ortaya çıkan bu verilere başka bilgisayarların da hızla ulaşabilmesi demektir. Dijital
teknolojinin yaygın olarak kullanılması büyük veri tabanlarının ortaya çıkmasına neden
olmaktadır.
Bilgisayar sistemleri her geçen gün hem daha ucuzluyor, hem de güçleri artıyor.
İşlemciler gittikçe hızlanıyor, disklerin kapasiteleri artıyor. Artık bilgisayarlar daha
büyük miktardaki veriyi saklayabiliyor ve daha kısa sürede işleyebiliyor. Bunun
yanında bilgisayar ağlarındaki ilerleme ile bu veriye başka bilgisayarlardan da hızla
ulaşabilmek olası. Bilgisayarların ucuzlaması ile sayısal teknoloji daha yaygın olarak
kullanılıyor. Veri doğrudan sayısal olarak toplanıyor ve saklanıyor. Bunun sonucu
olarak da detaylı ve doğru bilgiye ulaşabiliyoruz. Veri kelimesi Latince’de “gerçek,
reel” anlamına gelen “datum” kelimesine denk gelmektedir. “Data” olarak kullanılan
kelime ise çoğul “datum” manasına gelmektedir. Her ne kadar kelime anlamı olarak
gerçeklik temel alınsa da her veri daima somut gerçeklik göstermez. Kavramsal
anlamda veri, kayıt altına alınmış her türlü olay, durum, fikirdir. Bu anlamıyla
değerlendirildiğinde çevremizdeki her nesne bir veri olarak algılanabilir. Veri, oldukça
esnek bir yapıdadır. Temel olarak varlığı bilinen, işlenmemiş, ham haldeki kayıtlar
olarak
adlandırılırlar.
Bu
kayıtlar
ilişkilendirilmemiş,
düzenlenmemiş
yani
anlamlandırılmamışlardır. Ancak bu durum her zaman geçerli değildir. İşlenerek farklı
bir boyut kazanan bir veri, daha sonra bu haliyle kullanılmak üzere kayıt altına
alındığında, farklı bir amaç için veri halini koruyacaktır (Öğüt, 2009). Veriler ölçüm,
sayım, deney, gözlem ya da araştırma yolu ile elde edilmektedir. Ölçüm ya da sayım
yolu ile toplanan ve sayısal bir değer bildiren veriler nicel veriler, sayısal bir değer
7
bildirmeyen veriler de nitel veriler olarak adlandırılmaktadır. Veriler, enformasyon
parçacıklarıdır. Bu nedenle, enformasyon kavramını açıklamamız gerekir. Derlenen
verilerin oluşturmuş olduğu bütüne enformasyon denir. Belli bir konuya yöneliktir.
Ayıklanıp düzenlendikten sonra kullanıma sunulacak ve bir problemin çözümüne katkı
sağlayacak bilgi haline dönüşmüş olur. Öğüt’ün düşüncesine göre (2009) bilgi, bu
süreçteki üçüncü aşamadır. Bireyin algılama yeteneği, yaratıcılığı, deneyimi ve kişisel
becerileri ile enformasyonun özümsenerek sonuç çıkarılmasıyla gerçekleşir. Bilgelik ise
ulaşılmaya çalışılan nihai noktadır ve bu kavramların zirvesindeyer alır. Bilgilerin kişi
tarafından toplanıp bir sentez haline getirilmesiyle ortayaçıkan bir olgudur. Yetenek,
tecrübe gibi kişisel nitelikler birer bilgelik elemanıdır.
3.2. Enformasyon Kavramı
Shannon ve Weaver’ın 1949’da ortaya koydukları Enformasyon Kuramı daha
sonraki yıllarda iletişimin temeli olmuştur. Shannon’a göre iletişimde 5 temel unsur
vardır:
Aslında bu iletişim sistemini, alıcı, verici ve mesaj şeklinde 3 temel bileşen
olarak görmek mümkündür. Diğer bileşenler sistemin yapısına göre eklenebilir. Verici,
enformasyon kaynağıdır. Gerek kendisi gerekse çevreden aldığı enformasyonu iletiye
(sinyal) çevirir ve gönderir. İletiler, kanallarda yol alır. Sinyali bozucu çevre elemanları
olabilir. Bunlara gürültü kaynakları denir. İleti kanalında kodlayıcılar vardır. Kodlama
ile iletiler alıcının anlayacağı mesaj haline dönüşür. Mesaj ile hedefe ulaşılmış olur.
İdeal bir iletişimde minimum enerji ile maksimum mesaj iletilmeli, gürültülerden
minimum oranda etkilenmeli ve alıcı, iletiyi maksimum oranda hedefe dönüştürecek
yapıda olmalıdır.
8
Şekil 3.1. Enformasyon teorisine göre iletişim sistemindeki elemanlar
Aksini düşünürsek; veri kaynağındaki sorunlar, vericinin ilettiği sinyallere
parazitlerin etkisinin fazla olması, iletiyi dönüştüren veya kodlayan sistemlerde problem
olması, alıcının gelen sinyali mesaja dönüştürecek yeteneğinin az olması gibi
problemler nedeniyle hedefe istenilen ölçüde ulaşılamayacaktır. Zaman dinamiğinde,
artan bilgi akışı; bilimi ve dolayısıyla karar sistemlerini teorik ve deneysel düzeyde
etkilemektedir. Bilginin işlenmesinin kolaylaşmasıyla birlikte, karar sistemlerinin
etkinliği artmış ve dünya dinamiklerinde önemli değişikliklerin gerçekleşmesine neden
olmuştur. Ancak karar sistemlerine yaptığı etkiden dolayı bilgi akışının doğru bir
şekilde izlenmesi, kaos ve belirsizliğin yüksek olduğu alanlarda bilgi tahrifinden
olabildiğince arındırılması gerekmektedir. Kısacası, iletişim sorunu enformasyon
sorununa dönüşür ve kalitesiz hedefler ortaya çıkar. Bu nedenle, sistemin başlangıcı
olan kaynakta “veri kalitesi” sağlanmalıdır (Güvenen, 2011).
3.3. Keşfedici Veri Analizi
Veri üzerinde klasik istatistiksel tekniklerin uygulanabilmesi için bazı
varsayımların yerine getirilmesi gerekmektedir. Ancak, pratikte bu tür varsayımların
gerçekleşmediği birçok durum ile karşılaşmak mümkündür. Bu nedenle, klasik
istatistiksel teknikler geçerli sonuçları vermekten uzak kalmaktadırlar. İstatistiksel
9
analizlerin etkililiğini arttırmak için sağlam (robust) ve keşfedici yöntemlerin
geliştirilmesi ve uygulamaları giderek genişlemektedir.
Keşfedici Veri Analizi (Exploratory Data Analysis), belli bir veri kümesinin
yapısı hakkında hızlı ve kolay bir şekilde bilgi sahibi olmamıza yardımcı olan teknikler
bütünüdür. İstatistiksel tekniklerin ve analizlerin doğru kullanımı için, özet bazı
istatistikleri elde etmeden veya hipotez testlerini gerçekleştirmeden önce veriler,
oldukça detaylı bir şekilde incelenmelidir.
Kısaca keşfedici veri analizi (KVA), verilerin ne anlattığını anlamak ile ilgilidir.
Tukey (1977), KVA’nin “polisiye” bir çalışma olduğunu vurgulamaktadır. Bir suçu
incelemeye alan bir polisin hem bazı araç gerece hem de kavrama veya anlayış gücüne
gereksinimi vardır. Eğer polisin parmak izi tozu yoksa birçok yüzeydeki parmak izlerini
bulmada başarısız olacaktır. Diğer taraftan, suçun nerede işlendiği ve parmak izlerinin
nerede olabileceğini anlamazsa, parmak izlerini doğru alanlardan alamayacaktır. Benzer
şekilde, veri analizi yapanların da hem bazı araçlara hem de verileri anlama yeteneğinin
olması gerekmektedir. Hoaglin et al. (1983), KVA’nde dört temanın göründüğünü ve
bunların sıklıkla birlikte kullanıldığını belirtmiştir. Bunlar, direnç (resistance), artıklar
(residuals), yeniden açıklama (re-expression) ve açığa çıkarma (revealation) olarak
verilmektedir.
Direnç, verilerde bulunan aşırılıklara karşı duyarsızlığı sağlar. Dirençli bir
yöntem kullanıldığında, verilerin az bir miktarı oldukça farklı başka sayılarla yer
değiştirilse bile, fazla değişmeyecektir. Bunun nedeni, dirençli yöntemlerin veriler
içerisindeki sapanlardan (outliers) ziyade verilerin çoğunluğunun bulunduğu yere
odaklanmasıdır. Örneğin medyan sapanlara karşı dirençli bir istatistik iken aritmetik
ortalama değildir. Direnç ile benzer bir kavram olan sağlamlık (robustness) ise
genellikle verilerin geldiği kabul edilen belli bir olasılıksal modelin varsayımlarındaki
zayıflamalara karşı duyarsızlığı ifade etmektedir. Medyan bir örneğin merkezi eğilimini
ölçmede oldukça dirençli bir istatistik iken, sağlamlık açısından kendisinden daha
sağlam tahminleyiciler de vardır. Aritmetik ortalama ise dirençli olmamakla beraber
sağlam bir tahminleyici de değildir.
Artıklar, verilerin özetlenmesi veya bir model uyumu yapılmasından sonra,
veriler ile modele göre yapılan kestirimler arasındaki farktır:
ı =
– Örneğin, veriler (xi, yi) şeklinde eşleştirilmiş bir yapıda ve uyum
( 3.1)
10
yˆ i  a  bxi
( 3.2)
şeklinde tanımlanmış doğru ise artıklar da
ri  y i  yˆ i
( 3.3)
olacaktır. Keşfedici veri analizinin anahtar özelliği, artıkların detaylı bir analizi
yapılmadan veri kümesinin analizinin tamamlanmadığını söylemesidir. Artıkların
analizi verilerdeki hâkim olan davranış ile anormal davranış arasında açık bir ayırım
yapılabilmesi için dirençli analizleri de kullanmalıdır. Verilerin çoğunluğu tutarlı bir
örüntü gösteriyorsa, bu örüntü dirençli bir doğru bulunmasını sağlar. Ardından elde
edilen dirençli artıklar, şansa bağlı olarak artıp azalanların yanında, örüntüden oldukça
fazla uzak olan artıkları da içerecektir. Anormal artıklar, bunları ortaya çıkaran ilgili
gözlemlerin hangi koşullarda nasıl toplandığının üzerinde durulması gerektiğine işaret
etmektedir. Uygun yöntemler kullanılarak incelenen artıklar, verilerin davranışındaki
başka önemli sistematik durumlara (eğrisellik, etkileşimler, varyansın sabit olmaması,
başka bir faktörün varlığı vb.) da işaret edebilirler.
Yeniden açıklama, verilerin analizini kolaylaştıracak uygun ölçeğin (logaritmik,
karekök vb.) bulunması ile ilgilidir. Keşfedici veri analizi, öncelikle verilerin orijinal
ölçeğinde yapılan ölçümlerin tatmin edici olup olmadığının ele alınması gerektiği
üzerinde durmaktadır. Eğer bu ölçümler tatmin edici değilse, yeniden açıklama,
verilerin yapısına bağlı olarak, simetrinin sağlanmasına, değişkenliğin sabitlenmesine,
ilişkilerin doğrusallaştırılmasına veya etkilerin eklenebilirliğinin sağlanmasına yardımcı
olabilir.
Açığa çıkarma, araştırmacılar için, verilerin, uyumların, tanı (diagnostic)
ölçülerinin ve artıkların (residuals) davranışlarını görme gereksinimini karşılar. Açığa
çıkarma yönteminde ağırlıklı olarak grafik teknikleri kullanılmaktadır. Özellikle gövdeyaprak, histogram ve kutu grafikleri en yaygın ifade yöntemleridir. Bu grafiklerin
oluşturulması için veri üzerinde çok sayıda işlem uygulanır. Çünkü çoğu zaman veriler
işleme hazır halde değildirler. Veriler üzerinde bir takım dönüşümler uygulayarak,
verileri temizleyerek, verileri düzleştirerek veya harf değerlerine dönüştürerek verilerin
analizleri yapılmaktadır (Hoaglin, 1983).
KVA’nın makine öğrenimi, uzman sistemler ve istatistik ile sıkı bir ilişkisi
vardır. Bu ilişkilerden birisi de veriler ile ilgili modelleme yapmaya yarayan Biçimsel
Kavram Analizi (BKA) dir. Rudolf Wille (1982) tarafından kafes teorisinin
genişletilmesiyle ortay çıkmıştır. Matematiksel anlamda biçimsel mantık esasına
11
dayanır. BKA kavramı birçok disiplinde genel bir mekanizma olarak karşımıza
çıkmaktadır. Analiz iki bölümden oluşur: kapsam (extent) ve içerik (intent). İçerik
kavramın özelliklerini, kapsam ise kavramda yer alan nesneleri verir. Nesnelerin
taşıdıkları özelliklere göre gruplandırılmasına kavramlaştırma denir. BKA, kavramları
verilen bir bağlam içerisinde tanımlar ve aralarındaki ilişkiyi bağlama karşılık gelen
kafes yapısını kullanarak inceler. Biçimsel olarak bağlam, nesneler (G), özellikler (M)
ve ilişkilerden (I) oluşan üçlü bir cebirsel yapıyla ifade edilir. g nesnesi ve m niteliği
için (g,m) ∈I gösterimi “g nesnesi m niteliği taşır” anlamına gelmektedir (Sever, 2003).
Bu tanımlamalar ışığında Biçimsel Kavram Analizi, veri madenciliğindeki birliktelik
kuralının temelini oluşturmuş ve Agrawal et al. (1993) tarafından matematiksel temele
oturtularak algoritma geliştirilmiştir.
KVA ile ilgili yöntemler ve bilgiler detaylı incelendiğinde veri madenciliğinin
temeli olduğu görülecektir. Veri madenciliği de veri kümesi üzerindeki veri keşfi ile
ilgilidir. Ancak, veri madenciliği daha ileri teknik ve algoritmaları kullanmaktadır.
Keşfedici veri analizinin yalnızca hipotez testleri öncesi veri hakkında detaylı bilgi
sahibi olmak ve sonuçları görselleştirmek için kullanıldığı görmekteyiz. Bu nedenle veri
madenciliği KVA’nın bir sonraki ve ileri aşaması olmaktadır.
3.4. Veri Tabanları
Çevremizde olup biten tüm olaylar sonucunda “veri” oluşmaktadır. Veriler,
göndericiler tarafından iletilmek üzere kullanılır. Ancak veriler, kullanım hızından daha
süratli artmaktadır. Artan verilerin depolanması gerekmektedir. Düzenli verilerin bir
araya gelerek oluşturduğu bilgiler topluluğuna “veri tabanı” adı verilir. Veri tabanı
terimi, ilk yıllarda “kütük (file)” kavramının bir devamı olarak kullanılmıştır.
Bilgisayar terminolojisinde ise veri tabanı, sistematik erişim imkanı olan, yönetilebilir,
güncellenebilir, taşınabilir, birbirleri arasında tanımlı ilişkiler bulunabilen bilgiler
kümesidir. Bir başka tanımı da, bir bilgisayarda sistematik şekilde saklanmış,
programlarca istenebilecek veri yığınıdır. Her veri kümesi veri tabanı olarak kabul
edilmez. Veri tabanı aşağıdaki özellikleri taşımalıdır:

Veri tabanı belli bir kuruluşun birçok uygulamasında kullanılan, birbiriyle ilişkili
işletimsel verilerden oluşur.

Veri tabanında saklanan veriler kuruluşun birden çok uygulamasında kullanılan
sürekli verilerdir.
12

Giriş/çıkış verileri ve geçici veriler veri tabanında yer almaz.

Veri tabanındaki veriler gereksiz yinelemelerden arınmış olarak, düzenli bir
biçimde bilgisayar belleklerinde saklanır ve bu veriler ilgili kuruluşun birden çok
uygulaması tarafından paylaşılan ortak verilerdir.

Veri tabanında saklanan veriler değişmeyen statik veriler değildir. Ekleme, silme
ve güncelleme işlemleriyle veri tabanındaki veriler değiştirilebilir. Ayrıca
sorgulama ve raporlama işlemleri de yapılabilmektedir.

Veri tabanındaki veriler üzerinde merkezi bir denetim vardır.

Kullanıcılar işletim sistemi komutları ya da genel amaçlı programlama dilleri ile
yazılmış uygulama programlarını kullanarak, doğrudan veri tabanındaki verilere
erişemezler ve bu verileri değiştiremezler.

Bir veri tabanını oluşturmak, saklamak, çoğaltmak, güncellemek ve yönetmek
için kullanılan programlara Veri Tabanı Yönetme Sistemi (DBMS – Database
Management Systems) adı verilir. DBMS özelliklerinin ve yapısının nasıl
olmasını gerektiğini inceleyen alan Bilgi Bilimi (Information Science)'dir. Veri
Tabanında asıl önemli kavram, kayıt yığını ya da bilgi parçalarının
tanımlanmasıdır. DBMS aracılığıyla, veri tabanının bilgisayar belleklerindeki
fiziksel yapısı kullanıcılardan gizlenir. Kullanıcılara daha yalın mantıksal yapılar
sunulur.
Veri tabanı yazılımı ise verileri sistematik bir biçimde depolayan yazılımlara
verilen isimdir. Birçok yazılım bilgi depolayabilir ama aradaki fark, veri tabanın bu
bilgiyi verimli ve hızlı bir şekilde yönetip değiştirebilmesidir. Veri tabanı, bilgi
sisteminin kalbidir ve etkili kullanmakla değer kazanır. Bilgiye gerekli olduğu zaman
ulaşabilmek esastır. Bağıntısal Veri Tabanı Yönetim Sistemleri (Relational Database
Management Systems - RDBMS) büyük miktarlardaki verilerin güvenli bir şekilde
tutulabildiği, bilgilere hızlı erişim imkânlarının sağlandığı, bilgilerin bütünlük içerisinde
tutulabildiği ve birden fazla kullanıcıya aynı anda bilgiye erişim imkanının sağlandığı
programlardır. Oracle veri tabanı da bir bağıntısal veri tabanı yönetim sistemidir
(Usgurlu, 2010).
İlişkisel Veri Tabanı Sistemleri
• PostgreSQL
• MySQL
• Oracle
13
• Sybase
• BerkeleyDB
• Firebird
Veri Tabanı Dilleri
• SQL
• PL/SQL
• Tcl
Veri tabanının sağladığı faydalar şu şekilde özetlenebilir:

Herhangi bir evrakın saklanmasına gerek kalmaz

Bilgiler daha hızlı güncellendiğinden zamandan tasarruf edilir.

Yalnızca istediğimiz bilgiye istediğimiz zaman ulaşma imkanı vardır.

Verilerin kontrolü merkezi idare tarafından sağlanır.

Veri tekrarları azalır.

Tutarsız (hatalı) bilgi girişi engellenir.

Verilerin paylaşımı sağlanır.

Veri deseninde bütünlük sağlanır.

Genel veya özel raporlar almak mümkündür (Çıngı, 2007).
3.5. Veri Ambarları
Veri ambarı kavramının babası olarak nitelenen William H. Inmon’un 1992
yılında yapmış olduğu “Developing the Data Warehouse” çalışmasına göre veri ambarı,
konu odaklı, kara verme sürecini etkinleştiren, bütünleşik ve kalıcı veri topluluğudur.
Bir veri ambarı, analizler ve sorgular için kullanılabilir, bütünleşmiş bilgi deposudur.
Veri ve bilgiler, üretildiklerinde heterojen kaynaklardan elde edilirler. Veri Ambarları,
sağlık sektöründen coğrafi bilişim sistemlerine, işletmelerin pazarlama bölümünden
üretime, geleceğe dönük tahminler yapmada, sonuçlar çıkarmada ve işletmelerin
yönetim stratejilerini belirlemede kullanılmakta olan bir sistemdir. Pahalı bir yatırım
maliyeti olsa bile sonuç olarak getirisi (yararı) bu maliyeti kat kat aşmaktadır.
Belirli bir döneme ait, yapılacak çalışmaya göre konu odaklı olarak
düzenlenmiş, birleştirilmiş ve sabitlenmiş işletmelere ait veri tabanlarına “veri ambarı”
denir. Veri ambarları üzerinde çeşitli stratejiler hakkında karar vermek için yapılan veri
analizi ve sorgulama işlemlerine OLAP (On-Line Analytical Processing) denir. Günlük
sorgulamalardan farklı olarak olasılık barındır. Haftalık alış-satış oranı OLAP değilken;
14
süt ürünleri satışlarının 10 bin’i aşma olasılığı OLAP olur. OLAP ile veri madenciliği
birbirinden farklıdır. OLAP analizcisi hipoteze dayalı örüntü ve ilişkileri üretir ve onları
veri kümesi üzerinde ispat etmeye çalışır. Veri madenciliği analizcisi ise hipoteze dayalı
hareket etmektense bizzat veri kümesi üzerinde örüntüler ve ilişkiler bulmaya çalışır.
Buna karşın OLAP ve VM birbirlerini tamamlarlar. Araştırmacı önce olasılıksal
düşünerek ilişkileri belirlemeye çalışır ve sonrasında veri kümesi üzerinde işlemler
uygulayarak bu ilişkileri ortaya çıkarır (Küçüksille, 2010).
3.5.1. Veri Ambarı Oluşturulması
Veri ambarı aşaması veri madenciliği sürecinde önemli bir aşamadır. Bu süreç,
toplam maliyet ve zamanın önemli bir kısmını almaktadır. Madenciliği yapılacak veri
tek bir yapı içerisinde bulunmayabilir. Bu nedenle bilginin tek çatı altında toplanması
gerekir. Fakat veriyi tek çatı altında toplamak veri ambarı oluşturma anlamına gelmez.
Veri kümeleri üzerinde ayrıca başka işlemlerin de yapılması gerekmektedir.
İş organizasyonlarında veri ambarları iki amaçla oluşturulmaktadır:
1. Hareketsel ve organizasyonel görevler arasındaki depo ve analitik stratejik
verilerin birikimini sağlar. Bu veriler daha sonra yeniden kullanılmak üzere arşivlenir.
Veri ambarları verilerin sorgulanabildiği ve analiz yapılabilindiği bir depodur.

2. Veri Ambarlarının pazarda yeni fırsatlar bulmaya, rekabete katkı, yoğun proje
çevirimi, iş, envanter, ürün maliyetlerinin azalmasının yanında farklı işlere ait
verilerin ilişkilendirilmesi, karar destek ve alınan bilgiye hızlı cevap verebilme
gibi birçok katkısı vardır.
Veri ambarı oluşturma aşamaları:
i.
Toplama: farklı kaynaklarda olan verilerin tek kaynakta birleştirilmesi
işlemidir. Örneğin, hastaların tıbbi verileri yanı sıra bazı demografik
özelliklerinin de bilinmesi gerekebilir. Bu tür verilerin farklı kaynaklardan
alınarak tıbbi veriler ile birleştirilmesi yani toplanması gerekebilir.
ii.
Uyumlandırma: farklı kaynaklardan alınan veriler arasında uyumsuzluklar
ortaya çıkabilir. Veri madenciliği sürecinin başarısında veri uyumu önemli rol
oynamaktadır. Örneğin, cinsiyet verileri bir kaynakta 1/0 şeklinde tutulurken
diğer bir kaynakta E/K, veya Erkek/Bayan şeklinde tutuluyor olabilir.
Dolayısıyla veriler toplanırken bu uyumsuzluğun giderilmesi gerekmektedir.
15
iii.
Birleştirme ve Temizleme: Uyumlandırma işlemi sırasında verilerin dikkatli bir
biçimde birleştirilmesi ve fazlalıkların temizlenmesi gerekir.
iv.
Seçme: Kurulacak model için uygun verinin seçilmesi işlemidir. Özellikle
sınıflandırma uygulamalarında özniteliklere uygun verinin belirlenmesi önem
göstermektedir. Çünkü veri tabanlarındaki işlem hızları artmasına rağmen uygun
seçilmemiş veriler ile model denemesi yapılması zaman ve maliyet açısından
kayıplara neden olmaktadır (Kaya, 2010). Veri Ambarı oluşturmasına bir örnek
verelim.
ÖrnekMüşteriVeriTabanı
Müşteri No Ad-Soyad
1280001
AAABB
-------------------------------------
DoğumTarihi
15.04.1982
-------------------
↓
ÖrnekSatışVeriTabanı
Müşteri No Ürün
128001
Gömlek
-------------------------------------
Miktar
2
-------------------
↓
ÖrnekÜrünVeriTabanı
Ürün No
Marka
23500
Sarar
-------------------------------------
Miktar
300
-------------------
↓
ÖrnekMüşteriVeriAmbarı
MüşteriBurcu
Marka
Koç
Sarar
-------------------------------------
AlışverişGünü
04.03.2013
-------------------
Miktar
2
-------------------
Çizelge 3.1. Müşteri, satış ve Ürün veri tabanlarının kullanılarak Müşteri Veri Ambarı
oluşturulması
16
3.5.2. Veri Ambarının Özellikleri
Bir veri ambarının taşıması gereken özellikler şunlardır:

Konu Odaklılık: Bir veri ambarı, karar vericiler için de kullanıcılar için de
yalnızca gerekli olan verilere odaklı olup, o konu hakkında basit ve kısa görüş
elde etmeyi sağlamalıdır.

Bütünleşik olma: Bir veri ambarı, genellikle ilişkisel veri tabanları, standart
dosyalar ve online işlem kayıtları gibi çoklu heterojen yapıdaki kaynakların
bütünleştirilmesiyle oluşturulmaktadır.

Belirli zaman dilimine ait olma: Tarih açısından belli bir trend yakalamak
amacıyla son 5-10 yılın verileri saklanmaktadır. Her veri, dolaylı veya doğrudan
bir zaman değişkeni ile ilişkilendirilir.

Kalıcılık (Uçucu olmayan): Ambardaki veri, yönetimin ihtiyaçlarına cevap
vermek üzere tasarlandığından günlük işlemlere tabi tutulmamakta; yani silme
veya güncelleme işlemi yapılmamaktadır. Veriler yalnızca okunabilir (read-only)
yapıda tutulmaktadır. Ambarlarda “veri yükleme (loading)” ve “veriye erişim
(access)” olmak üzere yalnızca iki tür işlem uygulanır.
Veri tabanları üzerinde dönüşüm yapılarak konu odaklı olarak veri ambarları
oluşturulur. Veri ambarının belli bir konuya göre düzenlenmiş, sadece belli bir
bölümünü ilgilendiren parçasına veri pazarı (data mart) denir (Silahtaroğlu, 2008).
Veri ambarlarında özelliklerine göre şu tür veriler bulunur:

Metaveri: Veriye ilişkin temel veri olarak tanımlayabileceğimiz metaveri, veri
ambarının en temel bileşenlerinden birisidir. Konu ile ilgilenen karar destek
analizcilerine yardım etmek üzere tasarlanmış bir dizindir ve ilgili ambarın
içeriğinde neler olduğunu belirtir. Verinin konumu, hangi algoritmaya göre
oluşturulduğu, içeriği, kapsamı, çerçevesi vb. gibi bilgileri içeren bir kılavuz
niteliğindedir.
17
Hanehalkı Bilişim Teknolojileri Kullanım İstatistikleri
Analitik Çerçeve, Kapsam, Tanımlar ve Sınıflamalar
Amaç:
Hanehalkı Bilişim Teknolojileri Kullanım Araştırması, hanelerde ve bireylerde sahip olunan bilgi
ve iletişim teknolojileri ile bunların kullanımları hakkında bilgi derlemek amacıyla 2004 yılından
itibaren uygulanmakta olup, söz konusu teknolojilerin kullanımı hakkında bilgi veren temel veri
kaynağıdır.
Bu araştırma ile aşağıdaki alanlarda veri derlenmektedir:
- Hanelerde bulunan bilgi ve iletişim teknolojileri
- Bilgisayar (Bireylerin bilgisayar kullanımı, sıklığı v.b.)
- İnternet (Hanelerde İnternet erişimi sahipliği, bağlantı tipleri, bağlı araçlar, bireylerin İnternet
kullanım sıklığı, kullanım amaçları v.b)
- e-Ticaret
- e-Devlet uygulamaları
- Bilişim güvenliği
Tanımlar:
Hanehalkı: Aralarında akrabalık bağı bulunsun ya da bulunmasın aynı konutta veya konutlarda,
aynı konutun bir bölümünde yaşayan, kazanç ve masraflarını ayırmayan, hanehalkı hizmet ve
yönetimine katılan bir veya birden fazla kişiden oluşan topluluk.
Kent: 20 001 ve daha fazla nüfuslu yerleşim yerleridir.
Kır: 20 000 ve daha az nüfuslu yerleşim yerleridir.
bir işte çalışmış olanlar, Uluslararası İşteki Durum Sınıflamasına (ICSE,1993) uygun olarak
sınıflandırılmakta ve yayımlanmaktadır.
Şekil 3.2. Hanehalkı Bilişim Teknolojileri Anketine ait verilerin bulunduğu ambardaki
Çizelge 3.2Hanehalkı
Bilişim Teknolojileri Anketine ait verilerin bulunduğu
metaveri örneği (Anonim4)
ambardaki metaveri örneği(Kaynak: TÜİK internet sitesi-
18
3. Statistical presentation
3.1. Data description
The Unemployment - LFS adjusted series (including also Harmonised long-term
unemployment) is a collection of monthly, quarterly and annual series based on the quarterly
results of the EU Labour Force Survey (EU-LFS), which are, where necessary, adjusted and
enriched in various ways, in accordance with the specificities of an indicator.
Harmonised unemployment is published in the section 'LFS main indicators', which is a
collection of the main statistics on the labour market.
Other information on 'LFS main indicators' can be found in the respective ESMS page.
General information on the EU-LFS can be found in the ESMS page for 'Employment and
unemployment (LFS)' (see link in section 21.2).
Detailed information regarding the survey methods, organization and comparability issues is
available on the EU-LFS webpage.
3.2. Classification system
The 'LFS main indicators' are produced in accordance with the relevant international
classification systems. The main classifications used are NACE Rev.1 (NACE Rev.1.1 from
2005) and NACE Rev. 2 (from 2008) for economic activity, ISCO 88 (COM) for occupation
and ISCED 1997 for the level of education. For more details on classifications, levels of
aggregation and transition rules, please view the EU-LFS webpage: Statistical classifications
in EU-LFS.
3.3. Sector coverage
Not applicable
3.4. Statistical concepts and definitions
Definitions of employment and unemployment, as well as other survey characteristics,
follow the definitions and recommendations of the International LabourOrganisation. The
definition of unemployment is clarified further in Commission Regulation (EC)
No 1897/2000. This domain comprises collections of monthly averages of unemployed
persons and unemployment rates. The relevant definitions are as follows:
Unemployed persons are all persons 15 to 74 years of age (16 to 74 years in ES, SE (19952000), UK, IS and NO) who were not employed during the reference week, had actively
sought work during the past four weeks and were ready to begin working immediately or
within two weeks. Figures show the number of persons unemployed in thousands.
The duration of unemployment is defined as the duration of a search for a job or as the
length of the period since the last job was held (if this period is shorter than the duration of
search for a job).
Unemployment rate is the number of people unemployed as a percentage of the labour
force. The labour force is the total number of people employed and unemployed.
3.5. Statistical unit
Persons
3.6. Statistical population
The EU-LFS results cover the total population usually residing in Member States, except for
persons living in collective or institutional households. While demographic data are gathered
for all age groups, questions relating to labour market status are restricted to persons in the
age group of 15 years or older. For exceptions, please consult EU-LFS webpage:
Comparability of results.
Şekil 3.3. İşsizlik Oranları Çalışmasına ait verilerin bulunduğu ambardaki metaveri
örneği (Anonymous14)
19

Ayrıntı veri: veri ambarında en son olayları içeren ve henüz işlenmediği için
diğerlerine oranla daha büyük hacimli ve disk üzerinde saklandığından erişimleri
ve yönetimleri pahalı olan verilerdir.

Eski ayrıntı veri: Ayrıntı verinin dışında kalan ve daha eski tarihe ait olan
verilerdir. Ayrıntılı veriye göre daha düşük bir ayrıntı düzeyine indirgenerek
saklanmaktadır.

Düşük düzeyde özetlenmiş veri: Ayrıntı veriden süzülerek elde edilen düşük
seviyede özetlenmiş verilerdir. Veri ambarının tasarımı esnasında hangi verinin
özetleneceği ve özetleme işleminin ne düzeyde olacağı belirlenmelidir.

Yüksek düzeyde özetlenmiş veri: Ayrıntı veri daha yüksek düzeyde özetlenerek,
kolayca erişilebilir hale getirilebilir. Bu tür veriler de veri ambarının bir bileşeni
olarak yer alabilir.
Kısacası Veri Ambarları, stratejik kararları verme konusunda bir organizasyonun
ihtiyacı olan bilgiyi depolayan ve yapısal veya amaca özel sorgulamaların yapılabildiği,
birçok veri türünü bütünleştiren bir mimari olarak görülmektedir (Atılgan, 2011).
3.6. Veri Madenciliği Süreci
Veri madenciliği, belli belirsiz tanımlanmış bir alandır. Yapılan tanımlar
uygulama zeminine veya uygulayıcılara göre değişmektedir.

Veri madenciliği veri içindeki, geçerli, yeni, potansiyel olarak faydalı ve nihai
olarak anlaşılır örüntüleri anlamanın basit olmayan bir yoludur (Fayyad).

Veri madenciliği büyük veri tabanlarındaki daha önceden bilinmeyen,
kavranabilir ve işlemeye uygun bilginin ortaya çıkarılması ve bu bilginin önemli
iş kararları verilmesinde kullanılması sürecidir (Zekulin).

Veri madenciliği veri içindeki daha önceden bilinmeyen ilişki ve örüntüleri ayırt
etmede bilgi keşif sürecinde kullanılan yöntemlerin kümesidir (Ferruza).

Veri madenciliği veri içindeki faydalı örüntüleri keşi sürecidir (John).

Veri madenciliği büyük veri tabanlarında bilinmeyen ve beklenmeyen bilgi
örüntülerini araştırdığımız kara deste sürecidir (Parsaye).
Veri madenciliği ile ilgili yapılan yüzlerce tanımda iki orak kavram ortaya
çıkmaktadır. İlki “çok fazla” miktarda verinin olması, ikincisi ise bu verilerden
“anlamlı” bilgiler elde edilmesidir. Veri madenciliği uygulamaları günümüzde daha çok
20
ticari eksenli gelişmiştir ve kamu alanında yapılan uygulama sayısı başlarda az
olmuştur. Bu nedenle istatistik kurumlarının ve ofislerinin her geçen gün artan veri
yığınlarıyla baş edebilmeleri için veri madenciliği uygulamalarına gerekmiştir. Bunun
sonucunda verilerin temiz ve tutarlı hale getirilmesinde ve veri giriş performanslarının
incelenmesinde kullanılmaya başlayan veri madenciliği teknikleri sayesinde kamu
alanında da veri kalitesi artmaya başlamıştır (Babadağ, 2006).
Tüm bu tanımlamalara rağmen Veri Madenciliği (VM) ticari bir girişimin
konusu olarak günümüze kadar gelmiş ve madencilikten ziyade madencilere yazılım ve
donanım satmanın bir aracı olmuştur. Firmalar, büyük veritabanlarını yönetme ihtiyacı
içerisindedirler. Rekabet amacıyla her firma kendi sahip olduğu verilerden örüntü
çıkarma peşine düşmektedir. Bu durum, daha büyük disk alanları, daha hızlı işlem
yapan bilgisayarlar ve daha çabuk analiz yapacak yazılımların ihtiyacını doğurmaktadır.
Hem donanım hem de yazılım tacirleri abartılı reklamlar ile firmaların rekabetçi
damarını kaşırlar. Dolayısıyla, VM için çok büyük bir yazılım, donanım ve eğitim
pazarı oluşmuştur. Pazarın büyüklüğü milyar dolarlar ile ifade edilmektedir. Başlarda
birçok firma veritabanlarını idare edecek kapsayıcı paketler üretirken günümüzde birçok
firma tek bir amaç için uzmanlaşmış paketleri pazarlama çabası içerisine girmişleridir.
Mevcut VM ürünleri genel olarak aşağıdaki özelliklere sahiptirler:
 Çekici bir grafik ara yüzü
 Sorgulama dili
 Veri çözümleme prosedürleri dili,
 Esnek uygun girdi
 Tıklama ikonları ve menüler
 Girdi için iletişim kutuları
 Çözümlemeleri betimleyen diyagramlar
 Çıktıların çok yönlü ve hızlı grafikleri
Bunun yanı sıra istatistiksel çözümleme için şu yöntemleri de barındırırlar:
 Karar ağaçları
 Kural çıkarma
 Kümeleme yöntemleri
 İlişkilendirme kuralları
 Örüntü tanıma
 Yapay sinir ağları
 Bayesian ağları
21
 Genetik algoritma
 Kendini örgütleyen haritalar
 Bulanık sistemler
Bununla birlikte VM paketlerinin neredeyse tamamında
 Hipotez testleri
 Deneysel tasarım
 (M)ANOVA
 GLM
 Regresyon
 Diskriminant Analizi
 Kanonik Korelasyon
 Faktör Analizi
gibi istatistiki analiz yöntemleri bulunmaz. Bu tür temel analizler istatistik paketlerinin
içeriğidir ve VM paketleri istatistik alanı dışında geliştirildiğinden temel yöntemler
büyük ölçüde göz ardı edilmiştir. Bu durum, VM’nin görünürde istatistik ile ilgisinin
yüksek olmadığı izlenimini uyandırmaktadır. Çünkü VM kavramını büyük çoğunlukla
bilgisayarcılar geliştirmektedir. Oysa olayın geri planında teorik istatistik ve matematik
yoğun olarak kullanılmaktadır. Bu nedenle, “VM entelektüel bir disiplin midir?” veya
“VM istatistiğin bir parçası olmalı mıdır?” sorularının yanıtı net olmadığından henüz
kesin olarak cevaplanamamaktadır. Ancak VM’nin ticari düşünceden uzaklaşması ve
astronomik, meteorolojik, uzaktan algılama veya endüstriyel proses gibi büyük veri
tabanlarının bilim ile daha ilgili olmaları nedeniyle gelecekte verilebilecek cevap
şüphesiz: “evet!” olacaktır.
Ticari de düşünsek bilimsel de düşünsek teknolojiyle beraber verilerin hızla
arttığı gerçeğini de göz önünden uzaklaştırmamak gerekmektedir. SLAC firması
Muhasebe Müdürü Chuck Dickens: “Hesap gücümüz her on katına çıktığında, neyi
nasıl hesaplamak istediğimizi yeniden düşünmeliyiz.” demektedir. Bunun anlamı şudur:
Veri miktarı hızla artmaktadır ve her on katlık artışta, nasıl bir analiz yapılması
gerektiğinin yeniden düşünülmesi ve sürekli yeni yöntemlerin veya algoritmaların
geliştirilmesi gerekmektedir. Bu anlamda, VM gelişiminin yalnızca bilgisayarcılar
tarafından değil de istatistikçilerin de katkılarıyla yapılması gerekir. İstatistikçilerin
klasik analiz yöntemleri yanı sıra programlama ve VM sürecine dahil olmaları
gerekmektedir. VM’de bilgisayar amaç değil bir araçtır.
22
Sonuçta, VM süreci istatistiksel analiz süreçlerinden ayrı düşünülemez. Her
ikisinde de bir akış şeması vardır ve VM sürecinin % 70’ini verilerin ön işleme süreci
oluşturur. VM modelleri kara vericiler için en önemli yardımcı haline geldiğinden
aykırı, yanlış ve tutarsız veriler ile karar modelleri oluşturmak çok riskli olacaktır
(Friedman, 2012).
Veri madenciliği büyük veri kümeleri üzerinde oluşan bir süreç olduğundan çok
sayıda alanda kullanılmaktadır:
1) Pazarlama
a) Müşterilerin satın alma örüntüleri
b) Demografik özellikler
c) Posta kampanyalarına cevap verme
d) Mevcut müşterilerin elde tutulması
e) Market sepet analizi
f) Risk yönetimi ve dolandırıcılık saptama
2) İletişim:
Telekomünikasyon hatlarındaki parazitlenmeyi tespit etme, gürültü
giderme
3) Biyoloji: DNA ve gen teknolojisi
4) Sağlık: Kesin teşhis yöntemleri, cerrahi risk, hastane yönetim sistemleri, sağlıkta
maliyet düşürme, radyolojik görüntüleme
5) Bankacılık: Müşteriler arası bilgiler, sahte kart ve kredi olaylarını saptama
(Silahtaroğlu, 2008).
3.6.1. Verilerin Hazırlanması
Tüm veri madenciliği aktiviteleri, verinin özellikleri ve sunulması üzerine
kuruludur. Eğer veri işleme hazır semantik model halinde değilse kullanıcı verinin
uygun hale getirilmesi için bir takım tedbirler alır. Eksik veriler sorunu; tutarsız,
gürültülü ve gereksiz veriler ile ilgili işlemler sürecin bir parçasıdır. Veri madenciliği
yapanlar kayıtları kullanılabilir hale getirmek zorundadırlar, genellikle ikili veya sıralı
değişkenler şeklinde hazırlanır. Verilerin standart forma dönüştürülemediği durumlar da
olabilmektedir. Aynı şekilde VM, sıralı nümerik değerleri analiz etmeye tasarlanmıştır,
kategorize verileri kolaylıkla analiz edemez (Benoit, 2002).
Veri madenciliğinde kullanılan modeller, tahmin edici (predictive) ve
tanımlayıcı (descriptive) şeklinde iki ana gruba ayrılır. Tahmin edici modellerde, bilinen
23
sonuçlara sahip modellerden hareket edilerek sonuçları bilinmeyen veri kümeleri için
sonuç değerlerinin tahmin edilmesi amaçlanır. Örneğin, bir sigorta şirketi eski
müşterilerine ait elinde olan verileri kullanarak bilgi sahibi olmadığı yeni müşterilerinin
risk durumlarını tahmin edebilir. Burada bağımsız değişkenler müşterilerin bilgileri,
bağımlı değişken ise sigortalanma riskidir. Veriler kullanılarak model oluşturulur ve
yeni müşterilerin risk analizi yapılabilir. Tanımlayıcı modelde ise eldeki mevcut veriler
arasındaki ilişkiler ortaya çıkarılmaya çalışılır. Ortaya konan örüntüler yardımıyla ilgili
gruba giren kayıtlar ile ilgili bilgi sahibi olunur. Bir bankanın, konut kredisi kullanan
ailelerin özel araca sahip olma durumu ile araç kredisi kullanan müşterilerin kendi
konutuna sahip olma durumları arasındaki örüntüyü ortay çıkarması tanımlayıcı modele
örnek olabilir (Özekes, 2003).
Veri madenciliği uygulamasına başlamadan önce verilerin dikkatlice gözden
geçirilmesi gerekmektedir. Ham veri tabanlarındaki kayıtların büyük çoğunluğu
işlenmemiş, eksik ve gürültülü veri içerirler. Dolayısıyla bu verilerin elden alınması
gerekmektedir. Veritabanında eksik kayıtlar olabildiği gibi kayıtların bir kısmı aşırı uç
ya da yanlış girilmiş olabilirler. Bunlara gürültü terimi (noisy data) denir. Bazı
değişkenlerin birleştirilmeleri gerekebilir. Veri hazırlama aşamaları şöyledir:
1) Verilerin temizlenmesi:Eğer veri tabanında eksik verilerin olduğu kayıtlar varsa;
a) Eksik (kayıp) verilerin bulunduğu kaydı çıkarmak: Analizi yapacak kişi ya da
ekip tarafından belirlenecek olan eksik verilerin bulunduğu kayıtlar veri
kümesinden çıkarılır. Ancak çıkarılacak olan kayıt sayısına dikkat etmek
gerekir. Çok sayıda verinin çıkarılması yapılacak analizin sonuçlarını
etkileyebilir.
b) Eksik verileri elle teker teker doldurmak: eksik verilerin bulunduğu değişkenin
dağılımı tespit edilerek bu dağılımdan üretilecek olan rastgele (random) sayılar
ile eksik veriler doldurulur.
c) Tüm eksik verilere aynı bilgiyi girmek: analizi yapacak işi veya ekip tarafından
belirlenecek bir sabit sayı ile tüm eksik veriler doldurulur.
d) Eksik verilere tüm verilerin ortalama değerini vermek: var olan kayıtların
ortalaması hesaplanarak eksik olan verilere ortalama değeri verilir. Böylece
genel ortalama etkilenmemiş olur.
e) Regresyon yöntemi ile eksik verileri tahmin etmek: eksik verilere ait olan
değişken kayıtları regresyon uygulamaya uygun ise elde olan veriler ile
24
varsayımlar sağlanarak regresyon uygulaması yapılır. Elde edilen denklemden
faydalanılarak eksik değerler ait gözlemler elde edilerek doldurulur.
2) Verilerin yeniden yapılandırılması:
a) Yanlış gruplandırılmış veriler: Veri setindeki değişkenlere ait kayıtlarda farklı
gruplarda olmaları gerekirken aynı grupta işaretlenmiş veriler varsa bunların
uygun grup kategorilerine alınması gerekir.
b) Aykırı değerlerin tespit edilmesi: Aykırı değerler veri setindeki değişkene ait
kayıtları sınırları dışında kalan veya verinin trendinin tersine giden değerlerdir.
Mutlaka tespit edilip düzeltilmeleri gerekir. Çünkü analiz sonuçlarında hataya
sebep olurlar. Bu amaçla, daha çok istatistiksel yönetmelere başvurulur.
Histogram, saçılım veya kutu grafikleri aykırı değerleri tespit etmenin en
öncelikli yöntemlerinden bir kaçıdır.
c) Veri dönüştürme: Bazı durumlarda, değişkenlerin içinde bulunması gereken
aralıktan farklı değerler ile karşılaşılır. Eğer bir değişkenin belli bir aralıkta
olması ile ilgileniyorsak ve karşımıza çıkan veri bu aralığın dışında ise bu
durumda elimizdeki verilerin kullanılacak algoritmaya uygun hale getirilmesi ve
verilerin yeniden yapılandırılması gerekir. Bunun için bazı yöntemler vardır. En
yaygın kullanılan iki tanesi:
Min-Maks normalizasyon: Her bir değerin minimum ile farkının Min-Maks
={ ,
aralığından ne kadar büyük olduğu esasına göre hesaplanır.
şeklinde bir değerler dizisi ve
,…,
}
, .normalleştirilen değer olmak üzere
(0,1) aralığındaki normal değerler için Min-Maks yöntemi:
=
( )
( )
( 3.4)
( )
Herhangi bir (a,b) aralığı için Min-Maks yöntemi:
=
=
_
( )
( )
( )
=
ve
.(
_
−
_
_
olmak üzere
)+
_
( 3.5)
Sıfır ortalamalı standart normalizasyon: Her bir değerin ortalamaları ile farkının
standart sapması değerine bölünmesiyle hesaplanır.
değeri ve , dizinin standart sapması olmak üzere
,
dizisinin ortalama
25
=
( 3.6)
d) Veri boyutunu indirgeme: Genellikle iki yöntem kullanılır: Dalga Dönüşümü
(Wavelet Transform) ve Temel bileşenler analizi (Karhunen – Loéve) (Larose,
2005).
3.6.2. Veri Madenciliği Yönteminin Uygulanması
Veri madenciliğinin hızla gelişmesinin nedenlerinden birisi de kuruluşların
(kamu veya özel) büyük miktarda veriyi otomatik olarak toplamasıdır. Bu nedenle
toplanan verilerin hızla artan veri yığınının üzerinden zaman geçmeden veya rekabete
dayalı olarak daha önce bilgiyi ortaya koyma amaçlı analiz edilmesi gerekmektedir.
Bazı işletmelerde uyuşukluk, tembellik ve veri madenciliğine karşı gelişigüzel bir
yaklaşım sergilenmesi nedeniyle endüstriler arası standart kavramının geliştirilmesi
gerekli olmuştur. Tarafsız sanayi, tarafsız malzeme ve tarafsız uygulama sloganıyla
ortaya çıkan Cross Industry Standard Process for Data Mining (CRISP-DM) kavramı ilk
olarak 1996 yılında Daimler-Chrysler, SPSS ve NCR firmalarının analizcileri tarafından
geliştirilmiştir. CRISP yaklaşımı, veri madenciliği ile model oluşturmada tescilli
olmayan ve özgür standart süreçler sağlar. CRISP-DM yaklaşımına göre bir veri
madenciliği projesi altı aşamadan oluşur. Aşama sıralaması adaptifdir. Yani her bir
aşama bir önceki aşamanın gerçekleşmesine bağlıdır. CRISP süreci bir döngü ile
sembolize edilir (Cespivova, 2004)
26
İşletmeye /
Araştırmaya ait
amacın belirlenmesi
aşaması
Uygulama
aşaması
Verinin
anlaşılması
aşaması
VERİ
Verinin
hazırlanması
aşaması
Değerlendirme
aşaması
Modelleme
aşaması
Şekil 3.4. CRISP-DM adaptif süreç döngüsü
CRISP-DM döngüsünün aşamaları altı tanedir.
1
Amacın belirlenmesi (Business Understanding): Hangi konuda çalışma
yapılacaksa bu çalışmaya ait genel amaç ve alt hedefler belirlenir. Problemin doğru
tanımlanması ve gereken çözüm süreci için önemli bir aşama olup taslak plan
oluşturulur.
2
Veriyi Anlama (Data Understanding):
Hazırlanan hedeflere veya plana göre
mevcut verilerin durumu veya derlenmesi gereken veriler ile ilgili temel özellikler
ortaya konulur. Verilerin türleri, veri kalitesi, alt kümelere ait özellikler, verilerdeki
hata durumu ve eksik veri durumu tespit edilir.
3
Veriyi Hazırlama (Data Preperation): verilerin analiz edilemeden önceki tüm
süreçlerini kapsayan bir aşamadır ve çok önemlidir. Uygun hazırlanmayan bir veri
yanlış sonuçların çıkmasına neden olabilir. Verilerin ön analizleri yapılarak
27
tanımlayıcı istatistikleri hesaplanır. Böylece gürültü terimleri belirlenmiş olur. Eksik
verilerin giderilmesi, hatalı verilerin düzeltilmesi, verilerin indirgenmesi, verilerin
dönüştürülmesi gibi veri temizleme işlemleri bu aşmada yapılır. Birden çok
tablolarda bulunan kayıtlar için birleştirme işlemleri yapılır.
4
Modelleme (Modeling): temizlenmiş ve hazırlanmış veriler üzerinde hangi
modellemelerin yapılacağına karar verilir. Modeller ile ilgili çeşitli ayarlamalar
yapılır. Uygun olduğu düşünülen model veri kümesi üzerine uygulanarak sonuçlar
alınır. Modellemelerde çok sayıda teknik kullanılabilmektedir. Dolayısıyla bu
aşamada geriye dönmek ve yeniden uygulama yapmak gerekebilir.
5
Değerlendirme (Evaluation): Modellerin geçerliği ve uygunluğu açısından genel
bir değerlendirme yapılır. Çıkan sonuçlara yorumlanarak başlangıçta belirtilen
hedefler ve amaca ulaşılma durumu kontrol edilir. Eksik kalan hedefler ile ilgili
yeniden çalışmalar yapılır.
6
Sonuçları kullanma (Deployment): Nihai olarak elde edilen tüm bulgular ile ilgili
değerlendirmeler yapılır. Sonuçların ne şekilde uygulanacağına karar verilerek tüm
faaliyet rapor halinde sunulur. Bazı durumlarda yeniden veri madenciliği süreci
başlatmak gerekebilir. Bu aşama, hedeflerin gerçekleştirilmesi açısından hem
işletmeye (kurum) hem de kullanıcılara (müşteri) bağlıdır (Çınar ve Arslan, 2008).
CRISP-DM aşamaları daha sonraki yıllarda daha da detaylandırılmış ve sürece yeni
kavramlar eklenmiştir. Buna göre, veri madenciliği uygulama aşamaları şu şekilde
verilebilir.
1) Problemin tanımlanması
2) Veri tabanının hazırlanması
a) Verinin toplanması
b) Verinin tanımlanması
c) Verinin seçilmesi
d) Kalite kontrolü ve verinin temizlenmesi
e) Verinin uygun hale getirilmesi
f) Meta datanın oluşturulması
g) VM veritabanının yüklenmesi
h) VM veri tabanının işletilmesi
3) Verinin araştırılması
4) Modelleme için verinin hazırlanması
a) Değişkenlerin seçimi
28
b) Satırların seçimi
c) Yeni değişkenlerin üretilmesi
d) Değişkenlerin dönüşümü
5) Modelin oluşturulması
6) Sonuçları bulma
a) Model geçerliliği
b) Dış geçerlilik
7) Sonuçların raporlanması
3.6.3. Sonuçların Değerlendirilmesi ve Sunulması
Mevcut veri kümesine uygun modelleme sonrasında veri madenciliği
uygulaması yapılarak belirlenen hedeflere ulaşma doğrultusunda değerlendirme rapor
hazırlanır. Rapor, hedefleri, ulaşma oranını ve yorumları içerir. Ancak metin halindeki
raporlar kullanıcıların belli bir kısmına hitap ederler. Genel kitlenin kullanımına yönelik
bir bilgi için etkin sunuş yöntemlerini kullanmak gerekir. Bu anlamda en etkili yöntem
görsel ve işitsel ortamın kullanılmasıdır. Anlatılan konunun tablo halinde sunulması
anlamayı bir seviye kolaylaştırır. Ancak tabloların kalabalık ve karmaşık olması,
sayıların çok büyük veya ondalıklı olması anlamayı zorlaştırmakta ve dikkati
dağıtabilmektedir. Bu nenle, tabloların grafik hale dönüştürülmesi anlamayı bir adım
daha kolaylaştırmaktadır. Veri tipine uygun grafiklerin seçilmesi önemlidir. Ancak
grafik sunumlarında da dikkat edilmesi gereken noktalar vardır. Ölçekler üzerinde
yapılan değişiklikler veya grafik tipi sonuçların farklı bir şekilde algılanmasına yol
açabilir. Bu nedenle verilmek istenilen bilginin objektif ve standart bir biçimde grafik
halde sunulup yorumların açık bir biçimde yazılması gerekmektedir. Histogram, dalyaprak, dilim ve kutu grafikleri temel istatistiksel sonuçları yorumlamak için idealdirler.
Ancak çok değişkenli analizlerde bu tür grafikler ile sonuçların yorumlanması zordur.
Bu nedenle farklı gösterim biçimlerine ihtiyaç vardır. Veri madenciliği, verinin
görselleştirilmesi kavramını ileri boyutlara taşınmasına yardımcı olmuş, bilgisayar
teknolojilerindeki ilerleme sayesinde iki ve üç boyutlu görsellik sunumları bir uğraşı
konusu haline gelmiştir. Veri madenciliği paket programları, sonuçların görselliği ile
ilgili sürekli kendilerini yenileme ve kullanıcılarına daha kolay yorumlama imkanı
sağlayan yöntemleri sağlama çabası içerisindedirler (Berardi, 2006).
Veri madenciliğinde üç tip bilginin değerlendirme ve yorumlaması yapılır. Bunlar:
29
a. Nesnelerin gösterimi (Item Visualization): Madencilik uygulanacak veri
kümesinin faktöryel düzlem üzerinde çeşitli boyutlarda grafiksel olarak
gösterimidir.
Şekil 3.5. Nesnelerin gösterimine örnek (Anonymous11)
b. Uygulanan yöntemin gösterimi (Rules Visualization): Veri kümesi
üzerinde uygulanacak yöntem (veya kural) ile ilgili faktöryel düzlem üzerinde
analiz süreci hakkında bilgi veren grafiksel gösterimdir.
Şekil 3.6. Nesnelerin gösterimine örnek (Anonymous8)
30
c. Analiz sonuçlarını gösterimi (Conjoint Visualization): Nesnelerin ve
kuralların bir arada gösterildiği veya analiz sonuçlarının yorumlanmak üzere
ortaya konulan faktöryel düzlem üzerindeki grafiksel gösterimdir (Bruzzese
et al., 2008).
Şekil 3.7. Sonuçların gösterimine örnek (Anonymous1)
Veri madenciliğinde kullanılan belli başlı grafik yöntemleri şunlardır:
a. Saçılım Grafikleri: İki veya daha fazla değişken arasındaki ilişkinin
durumunu gösteren iki veya üç boyutlu olarak hazırlanabilen önemli
grafiklerdendir. Saçılım grafiklerinin merkez çevresinde istenen yüzde
sınırları içerisinde kalan ve kalmayan gözlemlerin belirlenebilmesi için
kullanılan özel grafiklere ise kontur grafiği denilir.
31
Şekil 3.8. Saçılım grafiklerine ve kontur grafiğine örnekler (Anonymous9)
b. Kabarcık Grafikleri: Saçılım grafiğinin değişik bir gösterim biçimidir. Üç
veya dört değişenli verilerde ilişkiyi daha iyi anlayabilmek için iki boyutlu
düzlemdeki saçılım grafiğinin üçüncü değişken için farklı işaretler (marker)
ile belirlenmesi şeklinde hazırlanır.
32
Şekil 3.9. İki ve üç boyutlu kabarcık grafiğine örnekler (Anonymous3)
c. Çok Boyutlu İkon Grafikleri: bağımsız gözlem birimlerinin özelliklerinin
nesneler ile ifade edildiği grafiklere ikon grafikleri denir. Chernoff yüzleri,
dairesel ikon grafikleri, adımsal ikon grafikleri ve profil grafikleri adlarında
çeşitleri vardır.
Şekil 3.10. İkon grafiklerine örnekler (Anonymous13)
d. Andrew Grafikleri: Benzer birimlerde olan değişkenler için Fourier
serilerine dayalı bir gösterim biçimidir.
33
Şekil 3.11. Andrew grafiğine örnek (Anonymous6)
e. Biplot Grafikler: n x p veri matrisindeki bilgilerin grafiksel sunumu olarak
tanımlanır. Biplot ismi hem gözlemleri hem de değişkenleri dikkate
almasındandır
Şekil 3.12. Biplot grafiklere örnekler (Anonymous4)
f. Ağaç diyagramı: Özellikle kümeleme analizinde kullanılan bir gösterim
biçimidir.
34
Şekil 3.13. Ağaç diyagramına (Dengdogram) örnek (Anonymous5)
g. Buz Saçağı Grafiği:
Şekil 3.14. Buz saçağı grafiğine örnek (Anonymous12)
h. Path Diyagramı
Şekil 3.15. Path diyagramına örnek (Alpar, 2011)
35
3.6.4. Veri Madenciliği Uygulama Programları
Veri madenciliği yöntemleri ve programlarının amacı büyük miktarlardaki
verileri etkin ve verimli hale getirmektir. Bilgi ve tecrübeyi birleştirmek için bu konuda
geliştirilmiş yazılımların kullanılması gerekmektedir. Bu kapsamda birçok ticari ve açık
kaynak kodlu program geliştirilmiştir. Ticari programların bazıları SPSS Clementine,
Excel makroları, SAS Miner, Angoss, KXEN, SQL Server, Statistica Data Miner
gibileridir. Daha önce de değindiğimiz gibi, ticari programlar sektörü müşterilerini
sürekli ihtiyaç içerisinde gösterip yeni programları veya versiyonlarını satmaktadırlar.
Bu anlamda milyonlarca dolarlık bir pazar oluşmuştur. Bu pazarda işletmeleri için
kaynak aktaramayan firmalar için açık kaynak kodlu yazılımlar da bulunmaktadır.
Bunlardan bazıları RapidMiner (YALE), WEKA, Orange, Scriptella, GMDH Shell,
ETL, jHepWork, KNIME, ELKI, R ve Tanagra sayılabilir. Yapılan araştırma ve
karşılaştırmalarda, sahip olduğu birçok özelliği nedeniyle RapidMiner programı
diğerlerine göre daha üstün bulunmuştur (Tekerek, 2011).
3.6.5. Veri Madenciliği Uygulamasında Karşılaşılan Sorunlar
Veri madenciliğinde esas olan, ham verilerin girdi olarak kullanıldığı veri
tabanlarıdır. Dolayısıyla veri tabanın yapısı ve kayıtlardaki veriler nedeniyle birçok
sorunla karşılaşılabilir. Veri tabanının dönüştürülmesi esnasında verinin durumuna göre
sonuçları ortaya koyamayacağımız sınırlı bilgi barındırabilir. Günümüz teknolojisinde
sürekli yeni algoritmalar geliştirilmesine karşın büyük boyutlu veri tabanları uygumla
açısından sorun yaratabilir. Toplanmış veriler içerisinde analiz yapmayı güçleştirecek
ve ilişkinin saptanması zor olan aykırı veriler olabilir. Eksik gözlem verileri de analizi
zorlaştırmaktadır. Eksik verilerin giderilmesi için birçok yöntem olsa da değişkenin
durumuna göre eksikliği giderilemeyecek veri miktarının fazla olması zorluk çıkarabilir.
Birçok program verilerin tamamının var olduğu durumlarda analiz yapmak üzere
tasarlandıklarından elde edilen istatistiklerin geçerliğini azaltmaktadır. Veri tabanı ile
ilgili sorunların yanı sıra uygun analiz yönteminin belirlenememesi ve kullanılan paket
programın uyum sorunu, kullanılacak olan algoritmanın veri seti ile uyumlu olmaması
da uygulama esnasında karşımıza çıkabilecek sorunlardandır. Ortaya konulacak sonuç
ve bulguların değerlendirilmesi ve sunumu ile ilgili fazladan paket programların
gereksinimi de ekonomiklik açısından sorun teşkil edebilir (Çıngı, 2007).
36
3.7. Veri Madenciliği Yöntemleri
Teknolojinin gelişmesiyle birlikte bilgisayarcıların gündemine “yapay zeka”
kavramı girmiştir. İnsanın düşünme mekanizmalarını analiz ederek ve taklit ederek
oluşturulan yapay yönergelerin geliştirilmesine yapay zeka (artificial intelligence)
denilmektedir. Yapay yönergelerin uygulanarak bilgisayar kontrollü gerçekleştirilen
somut hareketlere ise makine öğrenmesi denilir. İnsanoğlu eskiden beri kendi yaptığı
hareket ve davranışları bir makineye yaptırmak istemektedir. Bu amaçla birçok
programlama dili geliştirilmiştir. İstenilen hareketleri yapabilen programlanmış
makinelere robot denmektedir. Dolayısıyla konuya öğrenme kavramı girmektedir. Eğer
bir bilgisayar programı belirli bir işteki performansını gittikçe artırıyorsa makine
öğrenmesinden bahsedilir. Konuşulan kelimeleri öğrenme, satranç oynamayı öğrenme,
gıda ürünlerini sınıflandırmayı öğrenme, araba kullanmayı öğrenme gibi süreçler
makine öğrenmesine iyi birer örnektir. Bu girişimler gün geçtikçe hızla değişmekte ve
insan zekasından bağımsız, düşünebilen ve öğrenebilen zeka türleri üzerinde
çalışılmaktadır. Sibernetik, uzman sistemler ve bulanık mantık konuları ile insan
zekasına alternatif oluşturma çabaları kuantum yapıda çalışan bilgisayarların
geliştirilmesine öncülük etmektedir. Veri madenciliği, makine öğrenimi ve istatistik
bilimleri arasında yer alır. Veri madenciliğinde kullanılan algoritmaların bir kısmı
makine öğrenmesi alanındaki çalışmalar sonucu ortaya çıkmıştır. Dolayısıyla makine
öğrenmesi veri madenciliğinin sonuçlarından biri olarak ortaya çıkmaktadır. Veri
madenciliği yöntemleri makine öğrenmesi açısından iki kategoriye ayrılır: gözetimli
öğrenme ve gözetimsiz öğrenme. Gözetimli öğrenme (Supervised Learning), önceden
belirlenmiş ve sonuçları bilinen (etiketlenmiş/labeled) değişkenlere ait verileri
kullanarak bu verileri ve sonuçlarını kapsayan bir fonksiyon oluşturmayı amaçlayan
makine öğrenimi metodudur. Gözetimli öğrenmede önceden bilinen eğitim verileri
(training set) çıktılarıyla birlikte sisteme verilerek, makinenin kendi başına tümevarım
yapması sağlanır, bu "öğrenme" sürecidir. Öğrenme sonunda ortaya çıkan model
sayesinde gelecekteki veriler için de doğru sonuçları veren işlemler yapılabilecektir.
Karar ağaçları, yapay sinir ağları ve k-en yakın komşu gibi yöntemleri içeren tüm
sınıflandırma yöntemleri ve regresyon yöntemleri gözetimli öğrenme grubuna girer.
Gözetimsiz öğrenmede (Unsupervised Learning) ise önceden belirlenmiş bir değişken
yoktur. Algoritma, mevcut verilerden gizli kalmış bir örüntü veya kural çıkarmaya
çalışır. Veriler arasında böyle bir ilişki olabilir veya olmayabilir, bu yüzden gözetimsiz
37
öğrenmede yanlış sonuca varma gibi bir durum yoktur. En yaygın kullanılan gözetimsiz
öğrenme yöntemleri kümelemedir. Gözetimli veya gözetimsiz öğrenme olarak kabul
edilmeyen veya her iki gruba da dahil olabilecek algoritma birliktelik kuralıdır.
Önceden hedef değişken belirleme gibi bir olay yoktur ve çok sayıda veri arasından
anlamlı örüntüler bulma yöntemidir, bu anlamda gözetimsiz öğrenmeye örnek olabilir.
Ancak birliktelik kuralı algoritmasında önceden belirlenen destek ve güven değerleri
olması gerekmektedir. Bu anlamda gözetimli öğrenme sayılabilmektedir (Larose, 2005).
3.7.1. Sınıflandırma Yöntemleri
Sınıflandırma, en yaygın kullanılan veri madenciliği yöntemlerinden biridir.
Sınıflandırmada önceden tespit edilen sınıflar veya kategorilere ayrılmış hedef kategorik
değişkeni belirlenir. Örneğin, yüksek – düşük gelir, hastalık şiddeti ağır-hafif, riskli
müşteri-risksiz müşteri gibi. Bankacılık, eğitim, tıp, hukuk veya ülke güvenliği gibi
alanlarda kullanılmaktadır. Araştırmacı çok sayıda kayıt ve değişken içeren küme ile
ilgileniyordur. Buna kayıt kümesi (training set) denir. Bu kümede olmayan bir bilgiye
ulaşmak istiyordur. Bu da hedef değişkendir (target variable). Kayıtlar arasında
sınıflama yaparak hedef değişken kategorilerine ulaşmak sınıflamanın temel sürecidir.
Matematiksel olarak
={ ,
,…,
} bir veri tabanı ve
={ ,
,…,
}
: 
bir kayıt,
m adet sınıf kümesi olmak üzere
olarak tanımlansın ve
= { | ( ) =
,1 ≤ ≤ ,
∈ } sınıfına ait
kayıtları içerir şeklinde tanımlanır.
Çizelge 3.2’de verilen örnekte, kişilere ait kayıtlar vardır. Gelir düzeyi bilgisi
bilinmemektedir. Kayıt kümesindeki bilgilerden hedef değişken olan “gelir düzeyi”
bilgisi elde edilemeye çalışılır ve kategorize edilir.
38
Çizelge 3.2. Sınıflandırma yöntemi için kayıt kümesi örneği
Sıra
No
001
Yaş
Cinsiyet
Meslek
44
E
002
003
.
.
.
32
57
.
.
.
K
E
.
.
.
Satış
Sorumlusu
Doktor
Öğretmen
.
.
.
Doğum
Tarihi
12.03.1969
Araç
Durumu
Var
Konut
Durumu
Kira
Gelir
Düzeyi
Orta
27.08.1981
01.02.1956
.
.
.
Var
Yok
.
.
.
Mülk
Mülk
.
.
.
Yüksek
Orta
.
.
.
Hedef
Değişken
Kayıt
3.7.1.1. Karar Ağaçları
Sınıflandırma teknikleri içerisinde en sık kullanılan, ilgi çekici ve anlaşılması
kolay bir yöntemdir. Başlangıçta veri tabanı ve bu tabana ait kayıtlar (rootnode) vardır.
Bu kayıt dallara (branches) ayrılır. Dallardan ise yapraklara (leafnodes) inilir. Yapraklar
birer sınıf ve dal ayrımları düğümlerdir.
= { , , …,
olsun.
} bir veri tabanı ve oluşturulan karar ağacı aşağıdaki gibi
kök kaydından karar düğümleri ile
dalları ile karar sorgulamaları yapılır.
’den
ve
dallarına inilir.
dalı ile
’den
yaprağına inilir.
ve
ile ilk
karar düğümü sonlandırılmış olur. Aynı işlemler diğer tüm dallar için yapılır ve artık
tamamen yapraklara ulaşınca süreç sona ermiş olur.
Şekil 3.16. Karar ağacı örneği
39
Daha sonra ulaşılan yapraklardan (sınıflardan) sonuçlar belirlenmeye çalışılır. Gereksiz
bilgiler çıkarılır veya budanır (prunning). Düğüm belirleme, dal sayısı belirleme ve sınıf
belirleme tekniklerine göre çok çeşitli karar ağaçları algoritmaları vardır. Ayrıca
budama yöntemlerine göre de çeşitli algoritmalar geliştirilmiştir. Bunlardan
ID3, C 4.5 ve C5: J. Ross Quinlan tarafından Sydney Üniversitesinde
geliştirilen ve entropiye dayalı algoritmalardır. Makine öğrenmesi ve bilişim teorisine
dayalı olarak geliştirilmiştir. Entropi, bir sistemdeki belirsizliğin ölçüsüdür. Veriler
genellikle tek bir sınıfa ait değildir. Hedef değişkenin her bir sınıfa ait olma olasılıkları
farklıdır ve mutlaka bir sınıfa ait olması gerekir. Entropi 0 ile 1 arasında bir değer alır.
Matematiksel olarak şöyle ifade edilir:
,
Hedef değişkenin sınıflara ait olasılıkları
,….,
olsun (
≠ 0). Olasılıkların
toplamının 1 olması gerekir. Bu durumda entropi aşağıdaki formül ile tanımlanır.
(
,
,….,
) =− ∑
∙
( )
( 3.7)
Her üç algoritma da veri tabanının bölünmeden önceki ve bölündükten sonraki
yani dallanma başladıktan sonraki kazanımına göre işler. Dolayısıyla verilerin ham
halinin entropisi ile yani başlangıçtaki entropi ile her bir alt bölümün entropilerinin
ağırlıklı toplamı arasındaki fark alınır. Bu fark hangi alt bölüm için büyükse o alt
bölüme doğru dallanma yapılır. Bu durumda kazanım için formül
ı ( )=
şeklinde
∑
olur.
( )∙
−∑
Burada
(
)∙
kayıt
( 3.8)
kümesinin
ham
halinin
entropisi
ve
ise dallanma sonrası her bir kayda ait alt bölüm entropileri
toplamıdır.
CART (Classification And Regression Trees): Sınıflandırma ve regresyon
ağacı algoritması 1984’te Breiman et al. tarafından geliştirilmiştir. Ağacın her bir karar
düğümünden itibaren içerisindeki kayıtların daha homojen olduğu iki dala ayrılması
ilkesine dayanmaktadır. CART algoritması da en iyi dallanma kriterini seçerken
entropiden yararlanmaktadır, fakat bunun için bu algoritmalardan daha farklı iki yöntem
kullanmaktadır: Twoing ve Gini yöntemleri.
CHAID (Chi-Squared Automatic Interaction Detector): 1980 yılında Kass
tarafından geliştirilen algoritma, bölümleme veya ağaç oluşturma için oldukça etkili
40
istatistiksel bir yöntemdir. CHAID istatistiksel bir testi dallanma kriteri olarak
kullanarak, tüm bağımsız değişkenler için bir değerlendirme yapmaktadır. Hedef
değişken (bağımlı değişken) değerlerine göre istatistiksel olarak homojenlik gösteren
(farklılık
göstermeyen)
değerleri
birleştirmekte,
farklılık
gösterenlere
ise
dokunmamaktadır. Daha sonra dallarında homojen değerlerin yer aldığı ağacın ilk dalını
oluşturmak için en iyi bağımsız değişkeni seçmekte ve bu süreç ağaç tamamen
büyüyene kadar yinelemeli bir şekilde devam etmektedir. Dallanma kriteri olarak
kullanılacak istatistiksel test hedef (bağımlı) değişkenin ölçme düzeyine göre farklılık
göstermektedir. Eğer hedef değişken sürekli ise F testi, kategorik ise ki-kare testi
kullanılmaktadır. En küçük p değerine sahip değişken ile ağacın ilk dalı
oluşturulmaktadır.
QUEST (Quick, Unbiased, Efficient Statistical Tree): 1997’de Loh ve Shih
tarafından geliştirilen ikili ağaç üreten bir algoritmadır. Hem uygun bölünme için
değişken seçimiyle hem de bölünme noktası belirleme ile ilgilenmektedir. Sınıflandırma
türündeki problemler için QUEST algoritması CART, CHAID algoritmalarından hız
bakımından daha üstündür. Fakat regresyon türündeki (sürekli bağımlı değişkenli)
problemlerde QUEST algoritması kullanılamamaktadır.
SLIQ (Supervised Learning In Quest) : 1996 yılında IBM Almaden Araştırma
Merkezinde Mehta, Agrawal ve Rissanen tarafından önerilen hem sayısal hem de
kategorik verilerin sınıflandırılmasında kullanılabilen bir algoritmadır. Sayısal verilerin
değerlendirilmesindeki maliyeti azaltmak için ağacın oluşturulması sırasında önceden
sıralama tekniği kullanılır. Sayısal verilerle işlem yapılırken en iyi dallara ayırma
kriterini bulmak için verileri sıralama önemli bir faktördür. SLIQ algoritmasında
kullanılan teknik ise verileri sıralama işlemini her düğümde yapmak yerine öğrenme
verilerini ağacın büyüme aşamasının başlangıcında olmak üzere sadece bir kez yaparak
gerçekleştirmesidir. Algoritma dallanma kriteri olarak “Gini indeksini” kullanmaktadır
(Mehta, 1996).
SPRINT (Scalable PaRallelizable Induction of DecisionTrees) : ID3, CART
ve C4.5 gibi algoritma önce derinlik ilkesine göre çalışmakta ve en iyi dallanma
kriterine ulaşabilmek için her düğümde sürekli olarak verileri sıraya dizmektedirler.
SPRINT ise her bir değişken için ayrı bir liste kullanarak bu sıraya dizme işlemini
sadece bir kez yapmaktadır (Rahman, 2011).
41
3.7.1.2. Bayes/Naïve-Bayes Sınıflandırma
Naïve-Bayes Sınıflandırması makine öğreniminde gözetimli öğrenme alt
sınıfındadır. Sınıflandırma işleminde genel olarak elde bir örüntü (pattern) vardır.
Buradaki işlem de bu örüntüyü daha önceden tanımlanmış sınıflara sınıflandırmaktır.
Her örüntü nicelik kümesi tarafından temsil edilir. Elde varolan halihazırdaki
sınıflanmış verileri kullanarak yeni verinin hangi sınıflardan birine gireceği olasılığını
hesaplar. Bayes teoremine göre geliştirilmiş bir algoritma olup bu kurala göre
istatistiksel kestirim yapar (Olmuş, 2003).
göre
={ ,
, …,
={ ,
, …,
kümesinin
} sınıf üyeliği bilinmeyen bir veri kümesi ve
} veri kümesi üzerindeki n tane sınıf olsun. Bayes teoremine
üzerinde koşullandırılmasıyla
olasılığı aşağıdaki şekilde hesaplanır.
( ) =∑
. ( )
( 3.9)
ve
= . (
)
( 3.10)
( )
Hesaplamalardaki işlem yükünü azaltmak üzere
yoluna gidilebilir. Bunun için örneğe ait
olasılığı için basitleştirme
değerlerinin birbirinden bağımsız olduğu
kabul edilerek şu bağıntı kullanılabilir.
=∏
(
| )
Bilinmeyen örnek
(3.11)
’i sınıflandırmak için Eşitlik (3.10)’da
içinde yer
alan paydalar birbirine eşit olduğuna göre pay değerlerinin karşılaştırılması yeterlidir.
Bu değerler içinden en büyük olanı seçilerek bilinmeyen örneğin bu sınıfa ait olduğu
belirlenmiş olur. Sonsal olasılıkları kullanan yukarıdaki ifade, En Büyük Sonsal
Sınıflandırma yöntemi (Maximum A Posteriori classification=MAP) olarak da
bilinmektedir. O halde sonuç olarak Eşitlik (3.11)’den dolayı Bayes sınıflandırıcısı
olarak,
=
bağıntısı kullanılır.
( )∏
(
| )
(3.12)
42
3.7.1.3. k-En Yakın Komşu (k-ortalama) algoritması
k-ortalama (k-means) algoritması en iyi bilinen ve yaygın kullanılan mesafeye
dayalı kümeleme algoritması ve bölümleme tekniğidir. İlk olarak J. MacQueen
tarafından 1967 yılında tanıtılmıştır. Mesafe ölçümü verilerin birbirlerine olan
uzaklıkları veya benzerlikleri hesaplanarak yapılır. En sık kullanılan mesafe ölçüsü
Öklit (Euclides) mesafesidir. Bunun yanı sıra Minkowski ve Manhattan uzaklık ölçüm
teknikleri de kullanılmaktadır. Algoritmaya k-ortalama denilmesinin sebebi algoritma
çalışmadan önce sabit bir küme sayısı belirlenmesindendir. Küme sayısı k ile gösterilir
ve elemanların birbirlerine olan yakınlıklarına göre oluşacak grup sayısını ifade eder.
Buna göre k, önceden bilinen ve kümeleme işlemi bitene kadar değeri değişmeyen sabit
bir pozitif tamsayıdır. Kümeleme işlemi, verilerin en yakın veya benzer oldukları küme
merkezleri (centroid) etrafına yerleştirilmesi ile gerçekleştirilir. Bu nedenle tekniğin adı
daha çok k-en yakın komşu (k-nearest neighbour) olarak kullanılır. Belirlenen noktaya
en yakın şehir, istasyon, yeşil alan gibi mekanların belirlenmesini içeren coğrafi bilgi
sistemleri başta olmak üzere endüstri, medya ve tıp alanında kullanılmaktadır.
Algoritma basamakları şöyle sıralanmaktadır:
i.
k parametresini seç
ii.
Uygun bir mesafe ölçüm uzayı belirle
iii.
Birbirine en yakın k adet noktayı belirle
iv.
Belirlenen grubun en çok rastlandığı sınıfı belirle
v.
Bu gruba belirlenen sınıfın listesini ata
Çok yaygın kullanımı olmakla birlikte zayıf yanları da bulunmaktadır. k sayısının
başlangıçta belirlenmesine gerek vardır. Dolayısıyla elde edilecek sonuçlar k sayısına
göre değişkenlik gösterebilir. Eğer küme sayısı belli değilse denem yoluyla en uygun
sayı bulunur. Gürültülü ve istisna veriler algoritmayla hesaplanan ortalamayı
değiştirdiği için gürültülü verilere karşı duyarlıdır. Çakışan kümelerde iyi sonuç
vermemektedir ve sadece sayısal veriler ile kullanılabilmektedir (Dinçer, 2007).
43
3.7.1.4. k-medoid
Medoid, herhangi bir kümedeki tüm elemanlara olan ortalama uzaklığı
(benzemezlik ölçüsü) en küçük olan küme elemanıdır. 1987 yılında Kaufman and
Rousseeuw tarafından geliştirilmiştir. Bir grup nesneyi k tane kümeye bölerken asıl
amaç, birbirine çok benzeyen nesnelerin bir arada bulunduğu ve farklı kümelerdeki
nesnelerin birbirinden benzersiz olduğu kümeleri bulmaktır. k adet temsilci nesne tespit
edildikten sonra her bir nesne en yakın olduğu temsilciye atanarak k tane küme
oluşturulur. Veri kümesindeki k-medoid bulunarak bu medoide olan uzaklıklarına göre
toplamdaki n noktayı kümelemeye çalışan bir yaklaşımdır. Sonraki adımlarda her bir
temsilci nesne temsilci olmayan nesne ile değiştirilerek kümelemenin kalitesi
yükseltilinceye kadar ötelenir. Bu kalite nesne ile ait olduğu kümenin temsilci nesnesi
arasındaki ortalama benzersizlik maliyet fonksiyonu (cost function) kullanılarak
değerlendirilir. k-medoid, tutarsız ve aykırı gözlemelere sahip verilerde daha iyi
sonuçlar vermektedir. Ayrıca, Öklit uzaklıkları kareleri toplamı ile değil, benzemezlik
değerlerini toplamının en aza indirgenmesi şeklinde hesaplandığından matematiksel
olarak bu yöntem daha iyi sonuç vermektedir. Medoidler uç değerler ve düzensizliklerin
varlığında küme merkezine göre daha az etkilenirler. Medoid Etrafında Bölümleme
(Partitioning Around Medoids-PAM) en çok bilinen algoritma olarak kullanılmaktadır
(Karaağaoğlu, 2012).
3.7.1.5. Destek Vektör Makineleri (SVM)
Destek Vektör Makinesi (Support Vector Machine), 1960’lı yılların sonunda
Vladimir Vapnik ve Alexey Chervonenkis tarafından geliştirilmiş, temel olarak
istatistiksel öğrenme teorisine dayanan parametrik olmayan bir makine öğrenmesi
yöntemidir. DVM metodu son yıllarda özellikle veri madenciliğinde değişkenler
arasındaki örüntülerin bilinmediği veri setlerindeki sınıflama problemleri için sıklıkla
kullanılmaktadır. Büyük boyutlu verilerde en önemli sorun doğrusal olarak
ayrılamamasıdır. Klasik istatistiksel yöntemlerin de en büyük dezavantajı bu noktadır.
Bu metot, temelde iki sınıflı problemlerin çözümünde doğrusal bir sınıflayıcı olarak
düşünülmüş, daha sonra doğrusal olarak ayrılamayan veya çok sınıflı sınıflama
problemlerinin çözümüne de genelleştirilerek, bu problemlerin çözümünde de yaygın
olarak kullanılmaya başlanmıştır. Bu işlemin yapılması için iki gruba da yakın ve
44
birbirine paralel iki sınır çizgisi çizilir ve bu sınır çizgileri birbirine yaklaştırılarak ortak
sınır çizgisi üretilir. Herhangi bir şekilde doğrusal olarak sınıflanamayan verileri daha
yüksek boyutlu uzaya aktarır ve marjini en büyük olan hiper-düzlemleri bulur. Veriler
bu ayırt edici hiper-düzeleme göre sınıflara atanır. Bu düzlemi ve boyutları birer özellik
olarak düşünmek mümkündür. Yani basit anlamda sisteme giren her girdinin bir özellik
çıkarımı (feature extraction) yapılmış ve sonuçta bu iki boyutlu düzlemde her girdiyi
gösteren farklı bir nokta elde edilmiştir. Bu noktaların sınıflandırılması demek,
çıkarılmış olan özelliklere göre girdilerin sınıflanması demektir. Ayrıca, verileri çok
boyutlu uzayda kategorilere ayırmak için farklı çekirdek fonksiyonlar kullanılabilir. En
sık kullanılan çekirdek fonksiyonları doğrusal ve çok terimli radyal temel fonksiyonu
(RBF) ve sigmoiddir.
DVM algoritması öğrenme teorisinin ve pratiğinin kesiştiği bir uygulamadır.
Gerçek dünya uygulamaları, teorik olarak çözülmesi zor ve karmaşık olan
uygulamalardır. DVM algoritması bu iki zorluğu da basitçe kaldırabilir ve karmaşık
modellerde çözüm getirebilir Ayrıca, bayesyen yaklaşım mantığını kullanarak sınıflama
ve regresyonda daha hassas sonuçlar veren geçerli vektör makinesi (Relevance Vector
Machine-RVM) adında bir yöntem de bulunmaktadır (Karaağaoğlu, 2012).
Şekil 3.17. Destek Vektör Makinesi Algoritması problem çözüm düzlemi
3.7.1.6. Yapay Sinir Ağları (Artificial Neural Networks)
Yapay Sinir Ağları (YSA) üzerinde ilk çalışmanın McCulloch ve Pitts tarafından
yapay sinir tanımını yaparak hücre modeli geliştirmeleri şeklinde 1943 yılında başladığı
45
kabul edilir. İnsan beyninin bilgi işleme tekniğinden ve biyolojik sinir ağlarından
esinlenerek geliştirilmiş bir bilgi işlem teknolojisidir. Simüle edilen sinir hücreleri
nöronlar içerirler ve bu nöronlar çeşitli şekillerde birbirlerine bağlanarak ağı
oluştururlar. Bu ağlar öğrenme, hafızaya alma ve veriler arasındaki ilişkiyi ortaya
çıkarma kapasitesine sahiptirler. Diğer bir ifadeyle, YSA'lar, normalde bir insanın
düşünme ve gözlemlemeye yönelik doğal yeteneklerini gerektiren problemlere çözüm
üretmektedir. Bir insanın, düşünme ve gözlemleme yeteneklerini gerektiren problemlere
yönelik çözümler üretebilmesinin temel sebebi ise insan beyninin ve dolayısıyla insanın
sahip olduğu yaşayarak veya deneyerek öğrenme yeteneğidir. YSA’nın çeşitli
özellikleri
vardır.
Bunlar,
doğrusal
olmama,
adaptif
öğrenme,
genelleme,
uyarlanabilirlik, hata toleransı ve donanım hızıdır. YSA, arıza analizi, tıp, savunma
sanayi, haberleşme, üretim, otomasyon ve kontrol gibi çok geniş alanlarda
uygulanmaktadır. Birbirine bağlı nöronlar, bağlantılar arasındaki ağırlıklar ve ateşleme
fonksiyonu en temel bileşenleridir. Yapay Sinir Ağları girdi, çıktı ve gizli şeklinde üç
katmandan oluşur. Gizli katman , her bir girdi katmanı
gizli katmanına bağlayan
=
.
+
.
+ … +
den işaret alır.
ağırlıkları vardır. Bu durumda,
.
nöronlarını
nöronunun girdisi
(3.13)
şeklinde işaret ve ağırlıkların lineer çarpımına eşit olur. Y nöronunun aktif hale gelmesi
için
Yani,
değerinin bir fonksiyon eşliğinde belirli bir eşik değerine ulaşması gerekir.
= (
) şeklinde olmalıdır. Bu amaçla, çeşitli fonksiyonlar kullanılır. En
sık kullanılan fonksiyonlar
sigmoid s-lojistik
( ) =
(3.14)
hiperbolik tanjant
( ) =
(3.15)
46
Şekil 3.18. Yapay Sini Ağı ve katmanlarını gösteren bir örnek çizim
nöronu
’leri ateşleyecektir. Ancak, her bir işaretin ağırlığı farklı olduğundan bunlar
birbirine eşit olmayacaktır. Yapay sinir ağlarında kullanılan
∆
ağırlıkları her seferinde
kadar düzeltilerek yenilenir.
=
+∆
Gerçekte var olan değer
(3.16)
ile; ağırlıkları ile elde edilen değer
ile gösterilirse hata
fonksiyonu
=
= ( − )
(3.17)
olarak hesaplanır.
Geliştirilen YSA modelleri arasında en yaygın kullanılanları tek ve çok katmanlı
algılayıcılar, LVQ, ART ve SOM ağlarıdır. Yapay sinir ağlarının üstünlüklerinin yanı
sıra bazı sakıncaları olduğu da söylenebilir: Sistem içerisinde ne olduğu bilinemez, bazı
ağlar hariç kararlılık analizleri yapılamaz, farklı sistemlere uygulanması zor olabilir
(Silahtaroğlu, 2008).
3.7.1.7. Genetik Algoritma
Genetik algoritmaların temel ilkeleri ilk kez Michigan Üniversitesi'nde John
Holland tarafından 1975 yılında ortaya atılmıştır. Holland, yaptığı çalışmaları
“Adaptation in Natural and Artificial Systems” adlı kitabında bir araya getirmiştir. İlk
olarak Holland evrim yasalarını genetik algoritmalar içinde eniyileme problemleri için
47
kullanmıştır. Genetik algoritmalar, doğal seçim ilkelerine dayanan bir arama ve
optimizasyon yöntemidir. Genetik algoritmalar problemlere tek bir çözüm üretmek
yerine farklı çözümlerden oluşan bir çözüm kümesi üretir. Böylelikle, arama uzayında
aynı anda birçok nokta değerlendirilmekte ve sonuçta bütünsel çözüme ulaşma olasılığı
yükselmektedir. Çözüm kümesindeki çözümler birbirinden tamamen bağımsızdır. Her
biri çok boyutlu uzay üzerinde bir vektördür. Genetik algoritmalar problemlerin çözümü
için evrimsel süreci bilgisayar ortamında taklit ederler. Diğer eniyileme yöntemlerinde
olduğu gibi çözüm için tek bir yapının geliştirilmesi yerine, böyle yapılardan meydana
gelen bir küme oluştururlar. Problem için olası pekçok çözümü temsil eden bu küme
genetik algoritma terminolojisinde nüfus adını alır. Nüfuslar vektör, kromozom veya
birey adı verilen sayı dizilerinden oluşur. Birey içindeki her bir elemana gen adı verilir.
Nüfustaki bireyler evrimsel süreç içinde genetik algoritma işlemcileri tarafından
belirlenirler. Geleneksel optimizasyon yöntemlerine göre farklılıkları olan genetik
algoritmalar, parametre kümesini değil kodlanmış biçimlerini kullanırlar. Olasılık
kurallarına göre çalışan genetik algoritmalar, yalnızca amaç fonksiyonuna gereksinim
duyar. Çözüm uzayının tamamını değil belirli bir kısmını tararlar. Böylece, etkin arama
yaparak çok daha kısa bir sürede çözüme ulaşırlar. Diğer bir önemli üstünlükleri ise
çözümlerden oluşan popülasyonu eş zamanlı incelemeleri ve böylelikle yerel en iyi
çözümlere takılmamalarıdır. Genetik algoritma, fonksiyon optimizasyonu, çizelgeleme,
mekanik öğrenme, tasarım, hücresel üretim, finans, pazarlama, araç rotalama, tesis
yerleşim ve otomatik programlama gibi alanlarda başarılı ile uygulanmaktadır (Emel,
2002) (Mitchell, 1999).
3.7.1.8. Bellek Temelli Nedenleme (Memory Based Reasoning)
Bellek Temelli Nedenleme (MBR), daha önceki deneyimlerden yararlanarak mevcut
problemlere benzer durumları tanımlayıp geçmiş benzer problemlere getirilen uygun
çözümleri mevcut problemlere uygulaya çalışan bir gözetimli öğrenme sınıfına ait veri
madenciliği yöntemidir. MBR tekniğinin performansını belirleyen iki fonksiyon vardır:
uzaklık ve kombinasyon fonksiyonları. İki kayıt arasındaki uzaklığın bulunmasını
uzaklık fonksiyonu, sonuçların anlamlı olacak şekilde birleştirilmesini ise kombinasyon
fonksiyonu sağlar. Her türlü veri tipi için geçerli bir tekniktir. Ancak, yeni
kayıtların sınıflandırılması bu kayıtlara en yakın komşu kayıtların sistemde
taranacağı anlamına geldiğinden, bu teknik MBR ya da karar ağaçları tekniklerinden
48
çok daha fazla zaman alıcı olmaktadır. Ayrıca sonuçlar uzaklık fonksiyonu,
kombinasyon fonksiyonu ve komşu sayısı seçimlerine göre değişmektedir. Sahtekarlık
tespiti, müşteri cevap tahmini, tıp ve sınıflama yanıtları alanlarında kullanılmaktadır.
3.7.1.9. Regresyon
İki veya daha fazla değişken arasındaki ilişkinin matematiksel olarak belirlenmesi
yöntemidir. En küçük kareler yöntemiyle elde edilen tek değişkenli, doğrusal bir
regresyon modeli
=
+
+
şeklinde olur.
katsayısıdır.
=
(3.18)
denklemin sabit katsayısı,
doğrunun eğimi aynı zamanda regresyon
ise denklemdeki hata terimidir. Verilere ait denklem hiçbir zaman
+
(3.19)
şeklinde olmaz. Denklemin bu hali deterministiktir. Oysa gerçek gözlemlerin her zaman
stokastik yönü vardır. Hata terimleri stokastik kısmı oluşturur. Denklem bize ’teki bir
birimlik değişimin y üzerinde yaratacağı değişikliği gösterir. Veri madenciliği açısından
, sınıfları temsil eder.
’nin alacağı değere göre
olacağı tahmin edilecektir.
değişkenleri
değerlerinin hangi sınıfa dahil
sınıfını temsil ederken oluşturacakları
model her zaman doğrusal olmayabilir. Kuadratik veya kübik modeller de karşımıza
çıkabilir. Üçüncüdereceden daha üst dereceli fonksiyonlar kullanılmaz. Eldeki verilere
bağımlı sonuçlar elde edileceğinden üst dereceli fonksiyonların kullanılmasına gerek
yoktur. Tek veya çok değişkenli regresyon modelleri nümerik veriler ile çalışır. Ancak
verilerin veya sınıf değişkeninin değerleri sıralı veya nominal ise lojistik regresyon
modeli kullanılır. Regresyon konusu çok geniş bir konudur. Burada detaylı olarak
anlatılmayacaktır.
3.7.2. Kümeleme Yöntemleri
Kümeleme analizi sınıflandırmada olduğu gibi verileri gruplara ayırma işlemidir.
Eldeki veriler incelenerek birbirine benzeyenler bir kümeye, benzemeyenler ise başka
bir kümeye toplanmaktadırlar. Ancak sınıflandırma işleminde, sınıflar önceden belirli
iken kümelemede sınıflar önceden belirlenmemiştir. Bu özelliği nedeniyle denetimsiz
öğrenmeye örnek teşkil eden kümeleme analizi istatistik, makine öğrenmesi,
matematik ve yapay zeka gibi bir çok disiplin tarafından biyoloji, tıp, antropoloji,
pazarlama, ekonomi ve telekomünikasyon gibi alanlarda sıkça kullanılmaktadır.
49
Örneğin istatistikte sıkça başvurulan önemli birçok değişkenli analiz yöntemidir.
Kümeleme
analizinde
belirlenecek
kümelerin
özellikleri
ve
sayısı
önceden
bilinmemektedir. Ancak algoritmaların zaman karmaşıklığını ve alınacak sonuçların
kullanılabilirliğini artırabilmek
için
literatürdeki algoritmaların
bir
kısmı ya
kümesayısını ya da her bir kümede bulunacak eleman sayısı veya bu elemanlar
arasındaki minimum-maksimum benzerlik uzaklık ölçütünü kullanıcıdan istemektedir.
Kümeleme analizinde amaç verileri birbirleriyle benzer alt kümelere ayırmaktır.
Verilerin hangi kümelere ayrılacağı, hatta kaç değişik küme oluşturulacağı
verilerinbirbirine olan benzerliğine ve uzaklığına göre belirlenmektedir. Verilerin
benzerliği
ile
kastedilen
şey
ise
aralarındaki
mesafenin
ölçülmesi
ve
değerlendirilmesidir. Bu veritabanında bulunan her bir kaydın diğer bir kayıtla olan
benzerliği ya da diğer kayıtlara uzaklığı olduğu gibi oluşturulan gerçek ve aday kümeler
arasındaki benzerlik ve uzaklığı da içermektedir. En çok kullanılan uzaklık ölçütleri
Öklit, Manhatten, Minkowski; benzerlik ölçütleri ise Dice, Jaccard, Cosine, Overlap’dir.
Bunlar dışında da birçok ölçüt önerilmiştir.
Şekil 3.19. İki nokta arasındaki Öklit uzaklığı
Öklit uzaklığı şu şekilde ölçülür:
Ö
( , )=
∑
(
−
veya çok büyük kümelerde
Ö
( , )=1−
‖
)
(3.20)
= { ,…,
}
= { ,…,
}dizileri için
∙
(3.21)
‖∙‖ ‖
şeklinde hesaplanır. Burada <
∙
> , X ve Y’nin vektörel çarpımıdır.
50
ve
özelliklerine sahip verilerin topluluğu için verilerin bulunduğu düzlem aşağıdaki
gibi olsun.
Şekil 3.20. Kümeleme örneği
Noktaların birbirlerine olan uzaklıkları dikkate alındığında iki farklı kümenin oluştuğu
açıkça görülmektedir. O halde, küme oluşturmak için mesafe ölçüme ihtiyaç vardır.
Örneğin; A={1,1,2,2,5}, B={1,2,3,4,2}, C={1,3,5,1,3} kümeleri beş ayrı sözcüğün üç
farklı web sitesinde kullanım sıklığını göstersin. Hangi web sitesine ait metin diğerine
daha çok benzemektedir?
Ö
( , )= 1−
1.1 + 1.2 + 2.3 + 2.4 + 5.2
√1 + 1 + 2 + 2 + 5 . √1 + 2 + 3 + 4 + 2
27
=1−
√35. √34
= 0,217
bulunur.
( , ) = 1 −
√
= 0,218
.√
de aynı şekilde bulunur.
( , )< ( , )
olduğundan A metni B metnine daha fazla benzemektedir.
={ ,
…,
= (∑
={ ,
} ve
–
)
…,
} ∈
olmak üzere Minkowski uzaklığı
(3.22)
51
şeklinde hesaplanır. Pozitif
tamsayısı için
= 1 ise Manhatten uzaklığı,
= 2 ise
Öklit uzaklığı elde edilir.
Ses, karakter ve resim tanıması, makine öğrenimi, web sayfası aranması, DNA
analizi, Coğrafi Bilgi Sistemleri ve bilgisayar alanlarında kullanılır (Atılgan, 2011).
3.7.2.1. Hiyerarşik Yöntemler
Kümeleme yöntemleri ya hiyerarşik ya da hiyerarşik değildir. Hiyerarşik kümelemede
tekrarlı bölünmeler veya mevcut kümelerin birleştirilmesi şeklinde ağaca benzer bir
yapı (dendrogram) oluşturulur. Hiyerarşik kümeleme yöntemleri, birimleri birbirleri ile
değişik aşamalarda bir araya getirerek ardışık biçimde kümeler belirlemeyi ve bu
kümelere girecek elemanların hangi uzaklık (ya da benzerlik) düzeyinde küme elemanı
olduğunu belirlemeye yarayan yöntemdir. Hiyerarşik kümeleme iki grupta incelenebilir,
bunlar yığılmalı (agglomerative) hiyerarşik kümeleme ve bölünmeli (divisive)
hiyerarşik kümelemelerdir. Yığılmalı hiyerarşik kümeleme, verideki her bir gözlemi bir
küme olarak düşünür. Birleştirme işlemleri uygulanarak kümeler tek bir küme elde
edilinceye kadar devam ettirilir. Bölünmeli hiyerarşik kümelemede, başlangıçta tüm
birimlerin bir küme oluşturduğu kabul edilerek, birimleri aşamalı olarak kümelere
ayırır.
3.7.2.2. Bölümlemeli Yöntemler
Bölmeli metotlar, hiyerarşik olmayan kümeleme metotlarıdır. Bu metotlar, n adet
birimden oluşan veri setini başlangıçta belirlenen k<n olmak üzere k adet kümeye
ayırmak için kullanılır. Bölmeli metotların hiyerarşik metotlardan en önemli farkından
birisi de budur. Hiyerarşik yöntemlerin tersine kullanıcı tarafından verilen bazı
kriterlere uygun kümeler yatırılırken, yaratılacak küme sayısı önceden belirlidir.
Kullanıcı algoritmayı kümeler arasındaki minimum / maksimum mesafeyi ve kümelerin
iç benzerlik kriterlerini de vermek zorundadır. Bölmeli metotlarda işlemler şu sıra ile
yapılır: İlk olarak başlangıç küme merkezleri gelişi güzel olarak seçilir. Birimlerin,
belirlenen kümelerin merkezlerine olan uzaklıklarına göre yeni küme merkezleri
oluşturulur. Ardından her küme için ortalama hesaplanır ve hesaplanan bu değer o
kümenin yeni merkezi olur. Bu işlemler birbirilerinden farklı, kendi içlerinde homojen,
birbirileri arasında benzerlik bulunmayan k adet küme oluşturuluncaya kadar
52
sürdürülür. Görüldüğü gibi, bu metotlar iteratif süreçlerden oluşan metotlardır. Bölmeli
metotları arasında en bilinenleri k-ortalamalar kümeleme ve k-Medoids parçalamalar
yöntemidir.
Şekil 3.21. Bölmeli yöntemin uygulanma aşamaları
3.7.2.3. K-Ortalamalar (K-Means) Bölümleme Yöntemi
K-ortalamalar yönteminin uygulanabilmesi için en önemli koşul, veri setindeki
değişkenlerin en azından aralık ölçekte bulunmasıdır. Çünkü küme merkezleri
oluşturulurken her bir iterasyonda oluşan kümeler için değişkenlerin ortalamaları alınır.
İkinci önemli koşul ise, oluşturulacak olan küme sayısının başlangıçta biliniyor
olmasıdır. K-ortalamalar yönteminin kullandığı algoritma aşağıdaki gibidir:
i.
k adet birim başlangıç küme merkezleri olarak rastgele seçilir.
ii.
Küme merkezi olmayan birimler, belirlenen uzaklık ölçütlerine başlangıç küme
merkezlerinin ait oldukları kümelere atlanır
iii.
Yeni küme merkezleri, oluşturulan k adet başlangıç kümesindeki değişkenlerin
ortalamaları alınarak oluşturulur.
iv.
Birimler en yakın oldukları oluşturulan yeni küme merkezlerine birimlerin
uzaklıkları hesaplanarak kümeye atlanır.
53
v.
Bir önceki küme merkezlerine olan uzaklıklar ile yeni oluşturulan küme
merkezlerine olan uzaklıklar karşılaştırılır.
vi.
Uzaklıklar makul görülebilir oranda azalmış ise iv. adıma dönülür.
vii.
Eğer çok büyük bir değişiklik söz konusu olmamış ise iterasyon sona erdirilir.
İterasyonun durdurulması için kullanılan ölçütlerden birisi, kareli hata
ölçütleridir. Bu ölçüt
veri uzayında bir nokta,
ise
kümesine ait ortalama ya da
küme merkezi olmak üzere şu biçimdedir:
=∑
∑
∈
| −
|
(3.23)
3.7.2.4. K-Medoids Bölümleme Yöntemi
k-ortalamalar kümeleme yöntemine benzer biçimde işlem yapan fakat her bir
iterasyon sonucunda referans alınacak küme merkezlerini seçerken değişkenlerin
ortalama değerlerini almayıp birimleri küme merkezi olarak alan bir kümeleme
yöntemidir. Eğer veri setindeki kümeleme için kullanılacak olan değişkenler kategorik
değişkenler ise k- medoids yöntemi tercih edilir.
k-ortalamalar kümeleme yöntemi küme merkezlerini oluştururken ortalama
aldığı için aşırı değerlere duyarlı olmasına karşılık k-medoids parçalama yöntemi,
birimleri küme merkezi olarak seçtiğinden dolayı aşırı değerlere karşı duyarlı değildir.
k-medoids parçalama yönteminin amacı her bir küme için temsili bir birim
bulmaktır. Bu temsili birime medoid adı verilir. Medoid küme içerisine en merkezi
birimdir. Medoidler aşırı değerlerin varlıklarından etkilenmedikleri gibi, medoidler
incelenen birimlerin sırasına da bağlı değildir. k-medoids parçalama yönteminin takip
ettiği algoritma aşağıdaki gibidir:
i.
k adet birim başlangıç medoidleri olarak rastgele seçilir.
ii.
Her bir birimin yakın olduğu medoide atanır.
iii.
Medoid olmayan birimler sırasıyla seçilir.
iv.
Sıra ile seçilen bir birim ile medoidin yer değiştirmesinin toplam maliyeti
hesaplanır.
v.
Toplam maliyetler sıralanır.
vi.
En küçük toplam maliyet sıfırdan küçükse, iii. adıma dönülür.
vii.
Toplam maliyet sıfırdan büyük veya sıfıra eşit çıkarsa, iterasyon sona erer.
(Çıngı, 2007)
54
3.7.2.5. PAM Algoritması
PAM (Partitioning Around Medoids / Temsilciler Etrafında Bölümleme)
yöntemi Kaufman ve Rousseuw tarafından 1990 yılında geliştirilmiş bir algoritmadır.
PAM algoritması k adet kümeyi bulmak için seçilen temsilcilerin etrafına ana kümedeki
tüm elemanları toplayarak ve her defasında bu temsilcileri değiştirerek kümeleme
işlemini tamamlar. PAM algoritmasının temsilci olarak seçtiği noktaya medoid denilir;
dolayısıyla bu algoritma k-medoid algoritması olarak da anılır. Bu temsilci (medoid)
seçiminden kasıt ise kümenin merkezine yakın mesafede bulunan noktanın
belirlenmesidir. k adet küme için seçilen k adet temsilci belirlendikten sonra, veri
tabanındaki temsilci olmayan diğer noktalar (veriler) kendilerine en çok benzeyen
temsilcinin etrafında toplanır. Temsilciler (medoid) belirlenmesi süreci k adet
temsilcinin ana veri tabanından rastgele seçilmesiyle başlar. Daha sonraki her adımda
seçilmiş bir
temsilciyle, seçilmemiş bir
noktasının yer değiştirmesinin kümenin
kalitesi üzerinde yaratacağı iyileştirme
hesaplanarak, temsilcilerin değiştirilip
değiştirilemeyeceğine algoritma tarafından karar verilir.
3.7.2.6. CLARA Algoritması
CLARA (Clustering LARge Applications / Geniş Uygulamaların Kümelenmesi)
büyükveritabanlarının daha kısa süre içerisinde kümelenmesi amacıyla Kaufman ve
Rousseuew tarafından 1990’da geliştirilmiş bir algoritmadır. Kümeleme işleminin
yapım süresi azaldığı halde gerçekte algoritmanın zaman karmaşıklığında herhangi bir
iyileşme söz konusu değildir. CLARA algoritması bütün veritabanını tarayarak temsilci
noktalar seçmek yerine, veritabanından rastgele bir kümeyi alarak, PAM algoritmasını
bu örnek küme üzerine uygular. Bu uygulama sonucunda oluşacak olan kümelerin her
birinin temsilcisi belirlenir. Daha sonra ana kümeyi oluşturan veritabanından bir örnek
küme daha seçilir. Bu esnada ilk temsilcilerin rastgele seçilmesi yerine bir önceki
aşamada belirlenmiş temsilciler kullanılır. Bu da algoritma içinde temsilci değişimini
azaltacak ve algoritma hem daha hızlı bir şekilde işleyecek hem de daha kaliteli
sonuçlar verecektir. Bu tekrar örnekleme işleminin 5 defa yinelenmesi ve her defasında
40 + 2 adet örnek seçilmesinin en iyi sonucu verdiği Kaufman ve Rousseuew (1990)
tarafından rapor edilmiştir.
55
3.7.2.7. CLARANS Algoritması
CLARANS (Clustering Large Applications based on RANdomizedSearch –
Rasgele Aramaya Dayalı Geniş Uygulamaları Kümeleme) algoritması isminden de
anlaşılacağı gibi PAM ve CLARA algoritmalarının geliştirilmiş halidir. Algoritma
verilen n adet temsilciler aracılığıyla ve bir şebeke diyagramından yararlanılarak k adet
kümeye ayrılması şeklinde özetlenebilir (Atılgan, 2011).
3.7.3. Yoğunluğa Dayalı Yöntemler
Farklı şekildeki kümeleri belirlemek için yoğunluğa dayalı algoritmalar
geliştirilmiştir. Dağılmış noktaların oluşturduğu kümelerin k-means algoritması gibi
sadece noktalar arasındaki Öklit mesafesine dayanarak belirlenmesi oldukça güçtür;
üstelik bazı değişik şekildeki kümeler için de imkansızdır. Bu tür kümelerin tespit
edilmesinde uç verilerin (outliers) ayıklanması da gerekmektedir. Aslında hiçbir
kümeye ait olmayan bu uç veriler kümelerin belirlenmesi için yapılması gereken
hesaplamaları etkileyeceğinden gerçek kümeler ortaya çıkartılmayacaktır. Bu gibi
durumlarda, kümeleme işlemi, yoğunluğa dayanılarak yapılabilir; birlikte bir yoğunluk
oluşturan noktalar ayrı birer küme olarak değerlendirilirler. Yoğunluğa dayalı
kümelemede işlem kümeleri veri kümesinin geri kalanından daha yüksek yoğunluklu
kısımların belirlenmesi olarak tanımlanır. Belirlenen yoğunluk alanlarının aralarında
kalan veriler gürültü terimleri veya sınır noktaları olarak kabul edilir. En bilinen
yoğunluk tabanlı algoritmalar DBSCAN, DENCLUE ve OPTICS algoritmalarıdır.
DBSCAN (Density Based Spatial Clustering of Applications with Noise), 1996 yılında
Martin Esler ve arkadaşları Hans-Peter Kriegel, Jörg Sander ve Xiaowei Xu tarafından
geliştirilmiş bir algoritmadır. “Ulaşılabilir yoğunluk” esasına göre
minimum küme sayısı
komşuluk ve
parametrelerini kullanarak çalışmaktadır. OPTICS
algoritması DBSCAN algoritmasının genelleştirilmiş hali olarak kabul edilebilir.
DENCLUE
Algoritması
(DENsityBasedCLUestEring),
veri
tabanında
bulunan
noktaların etki fonksiyonlarının toplamından yararlanılarak elde edilen genel bir
yoğunluk fonksiyonunun, yerel maksimumlarının kullanılmasıyla yoğunluğa dayalı bir
kümeleme gerçekleştirir. Birinci adımda, her bir noktanın kendi çevresi kapsamındaki
etki fonksiyonu hesaplanır; bu fonksiyon parabolik, kare dalga fonksiyonu veya Gauss
fonksiyonu olabilir. Bu fonksiyon veritabanındaki tüm noktalara uygulanır. İkinci
adımda ise bu fonksiyonların toplamı bulunur. Hesaplanan bu etki fonksiyonları toplamı
56
bu veritabanının genel yoğunluğunu vermiş olacaktır. Üçüncü adımda kümeler
matematiksel olarak yoğunluk–çekicileri (density-attractors) yardımıyla tespit edilir.
Burada
yoğunluk–çekicilerinden
kasıt
genel
yoğunluk
fonksiyonunun
yerel
maksimumlarıdır. Yoğunluk çekicileri yoğunluk fonksiyonunun gradyenti yardımıyla
hesaplanır.
3.7.4. Izgara Tabanlı Yöntemler
Izgara tabanlı kümeleme özellikle çok büyük veri setleri ile ilgilenmek için
uygundur. Izgara tabanlı kümeleme yaklaşımı veri noktalarından çok hücreleri göz
önüne alan bir yaklaşımdır. Bu özelliğinden dolayı, ızgara-tabanlı kümeleme
algoritmaları genel olarak tüm kümeleme algoritmalarından hesapsal olarak daha
etkindir. Bu yaklaşıma örnek olarak STING, STING+, WaveCluster, CLIQUE ve
GDILC algoritmaları verilebilir. Izgara tabanlı kümeleme yaklaşımı çok çözümlü grid
veri yapısını kullanır. Kümeleme yapılacak alanın sonlu sayıda hücrelere bölünmesiyle
oluşur. Prensip, ilk olarak veri setini, ızgara gibi özetledikten sonra ızgara hücrelerini
kümeyi oluşturmak üzere tekrar birleştirmek üzerinedir. Ana avantajı genelde
birbirinden bağımsız sayıda veri nesnelerinde hızlı işlem zamanıdır.
STING uzayı dikdörtgensel hücrelere bölen bir tekniktir. Bu hücreler hiyerarşik
yapıdadır. Üst seviyedeki bütün hücreler bir sonraki alt seviyede parçalanmış
hücrelerden oluşur. Her bir grid hücresindeki niteliklerle ilişkili istatistiksel bilgi
(örneğin mean, maksimum veya minumum değerler) ön işlenir veya tutulur. Üst
seviyede
hücre
istatistiksel
parametreleri,
alt
seviyedeki
hücre
istatistiksel
parametrelerden kolayca hesaplanabilir. Bu parametreler şu şekildedir:
parametre,
(sayı); nitelik-bağımlı parametreler,
(minimum),
(ortalama),
bağımsız
(standart sapma),
(maksimum) ve hücrelerin nitel dağılımlarındaki dağılım tipi:
normal, tek biçimli, üstel veya hiçbiri (dağılım bilinmiyor) gibi. Veri, veritabanına
kaydedilirken, en alt seviyede hücrelerdeki
,
, s,
ve
parametreleri
direkt olarak hesaplanır.
CLIQUE (Clustering in Quest) algoritması yoğunluğa dayalı ve grid temelli yöntemleri
birleştiren algoritmadır. Çok yüksek veri gruplarının kümelenmesi için geliştirilmiştir.
Algoritma aşağıdaki ilkeler çerçevesinde çalışır. Öncelikle CLIQUE algoritmasının çok
boyutlu veri uzayının alt uzaylarında çalıştığında ve bu sayede daha iyi kümeleme
gerçekleştirdiğini belirtmek gerekir. Ayrıca, veri uzayının dağınık ve birbirinden
57
bağımsız veriler tarafından doldurulduğu kabul edilir. Algoritma, birbirine yakın
noktalardan oluşan bölgeleri başka bir deyişle yoğun olan bölgeleri diğer bölgelerden
ayırır ve bu bölgelere “birim” ismi verilir. Yoğunluk kavramı ise bir bölgedeki toplam
veri sayısının daha önceden girilen bir değeri aşmasıdır. CLIQUE algoritması genel
olarak üç adımda tamamlanır;
i.
Kümeleri kapsayan alt uzay tanımlaması
ii.
Kümelerin tanımlanması
iii.
Kümeler için minimum tanımın genelleştirilmesi (Silahtaroğlu, 2008).
3.7.5. Dalga Kümeleme (Wave Cluster)
Wavelet dönüşümü kullanan kümeleme yöntemi olarak bilinen dalga kümelemesi
(Wave Cluster), çoklu çözüm kümeleme algoritmasıdır. İlk olarak veri uzayını çok
boyutlu grid yapısına dönüştürür. Sonra wavelet dönüşümü aracılığıyla yoğun bölgeleri
bularak orijinal uzayda dönüşüm yapar. Farklı çözüm seviyelerindeki göreceli mesafe
verimi wavelet dönüşümü sayesinde saklanır. Bu doğal kümeleri daha çok ayırt
edilebilir hale getirir. İlgi alanındaki yoğun bölgeleri arayarak kümeler tanımlanabilir.
Nokta kümelerin olduğu bölgeleri vurgulayarak şapka şeklinde filtreler kullanır. Aynı
zamanda zayıf bilgileri küme sınırları dışına atar. Bu şu anlama gelir; veri kümelerinde,
bilgileri otomatik olarak belirler ve bölgelerde temizlik yapar. Wavelet dönüşüm sınır
dışındaki verileri otomatik olarak temizler. Wavelet dönüşüm, kümelerdeki farklı
seviyedeki doğruluğu keşfeder.
3.7.6. Kohonen Ağlar (Kohonen Networks)
Kohonen ağlar, Self OrganizingMap (SOM) olarak ta bilinen, kümeleme amaçlı
kullanılan ve denetimsiz öğrenme çeşidi olan bir yapay sinir ağı yöntemidir.
Algoritmada temel nokta “nöron”lardır. Nöronlar “girdi”ve “çıktı” şeklinde iki
tabakadan oluşur. Girdi nöronlarının tamamı çıktı nöronları ile bağlıdır. Bu bağlar “güç”
olarak adlandırılan ölçülerle ifade edilir. Algoritma çalışınca çıktı nöronları en çok
veriyi kendilerine bağlamak için yarışırlar. İlişki vektör tabakası iki boyutlu ve ilişkisiz
grid yapısı oluşturur. Öncelikle tüm girdi nöronları için çıktı nöronlarına ağırlık atanır.
En güçlü ağırlığa göre veriler çıktı nöronlara gönderilir. Analiz sonucunda benzer
veriler grid üzerinde aynı yerde, farklı olanlar ise uzak yerlerde kümelenir (Larose,
2005).
58
Şekil 3.22. 2-boyutlu Kohonen ağa ait ilişki vektörü tabakası
3.8. Birliktelik Kuralı (Association Rule Mining)
3.8.1. İlişki Analizi (Affinity Analysis)
Kurum ve kuruluşların sahip oldukları veri tabanlarındaki bilgi gün geçtikçe
artmakta bu nedenle büyük bilgi kümeleri içerisindeki ilişkileri ortaya çıkarma çabası
içerisine girilmiştir. Bu tür ilişkiler kurum veya kuruluşlar için altın değerinde sonuçlar
doğurabilecek kararların alınmasında önemli rol oynamaktadır. Günümüzde büyük
kavramından kasıt; terabaytlar ile açıklanan miktarlardaki veri kümeleridir. İstatistik ve
makine öğrenmesinin birleşimi ile bu kümeler içerisindeki gizli kalmış ilişkilerin açığa
çıkarılması yöntemleri ortaya çıkmıştır. İlişki analizi veritabanındaki bir dizi ya da
kaydın diğer kayıtlarla olan bağlantısını açıklayan işlemler dizisidir. Bir kayıt varken
başka bir kaydın var olma olasılığı nedir veya üç, dört, daha fazla kaydın aynı anda
veritabanına girme olasılığı nedir? Bu tür soruların cevabını ilişki analizi verir (Flank,
2004). Sınıflama yöntemleri, önemi olan kategorik özelliği tahmin etmeye yönelikti.
Ancak ilişki analizi çok daha genel olup bir veri kümesindeki herhangi bir kuralı ortaya
çıkarmaya yöneliktir. Basit anlamda söyleyecek olursak, “EĞER … ÖYLEYSE …”
mantıksal bağlaç kuralı ile “özellik = değer” denkliği oluşturarak oluşturulur. Denkliğin
sağ ve sol tarafları vardır. Ayrıca bütün özelliklerin kategorik olduğunu varsayarız.
59
Sınıflamadan farklı olarak sağ ve sol tarafın her ikisi de test edilebilir. Satışpazarlamadan, katalog tasarımlarına market sepeti analizinden iletişim hatlarındaki
parazitlerin tespitine kadar birçok alanda kullanılmaktadır. Örneğin, herhangi bir ürünü
satın alırken başka bir ürün de beraberinde alınıyorsa bu ürünler arasında bir bağlantı
var demektir. Finansal bir veri kümesinden örnek verecek olursak:
EĞER Mortgage=Evet VE Banka_Hesap_Durumu=Kredili
İSE O HALDE İş_Durum=Çalışıyor VE Yaş_Grup=65 yaş altı
olabilir. Özelliklerin sahip olduğu değerler arasında kurulan bu ilişkilere “birliktelik
kuralı” denir. Bir veri kümesinden bu kuralları ortaya çıkarma işlemine ise birliktelik
kuralı madenciliği (association rule mining- ARM) denilir (Bramer, 2007).
3.8.2. Market Sepeti Analizi (Market Basket Analysis)
“Market Sepeti Analizi” ürünler arasında ilişkilerden yola çıkarak müşterilerin
alışveriş alışkanlıklarının veri tabanındaki bilgiler aracılığıyla ortaya çıkarılması
işlemidir. Bu bilgiler, market içerisinde ürünlerin yerleştirilmesi, marketin alan tasarımı
ve satılacak ürünlerin belirlenmesine yardımcı olur. Market sepeti verisi müşteriler
tarafından beraber satın alınan nesneleri içerir. Bu tür nesneler kümesine işlem
(transaction) denir. Son yıllarda bu konu üzerinde çok sayıda çalışma yapılmıştır. Tespit
edilen birliktelikler sayesinde rafların ürün tasarımlarının yapılması, müşterilerin kişisel
tercihleri, promosyon düzenlemeleri gibi tüketiciye yönelik aktiviteler daha bilinçli bir
şekilde yapılabilmektedir. Bu yöntem, web tabanlı sistemlere de kolaylıkla adapte
edilebilmekte ve web sayfaları, yayınlar ve dokümanlar arasındaki benzerlikler
bulunabilmektedir (Hahsler, 2005). Birliktelik kuralı matematiksel olarak şu şekilde
ifade edilir:
= { , ,…,
} bir nesneler kümesi olsun.
= { , , …,
} veri tabanındaki
işlemleri göstersin.
Her bir
’nın alacağı değer 0 veya 1 olur. Eğer
satın alınmışsa 1, alınmamışsa 0
değerini alır. Bu işlemler veritabanında kayıt altına alındığından,
olmak üzere ve ⊆ için ’deki her bir
’ya karşılık gelen
bir nesne kümesi
değeri olur ve
=1
dir.
⊆ ve ⊆ olmak üzere her işlemdeki ikili değişkenler
eşleştirilir. Birliktelik kuralı;
⊂ ,
⊂
ve
∩
= olmak üzere
denilen bir belirteç ile
60
⟹
(3.24)
şeklinde tanımlanır. Denkliğin sol tarafına öncül (antecedent), sağ tarafına ise sonuç
(consequent) denilir. Öncül kısmı kurallarda hangi öncül olayın gerçekleştiğini, sonuç
ise hangi durum hakkında bir tanımlama yapılacağını belirtmektedir (Aggarwal, 2002).
“EĞER Öncül O HALDE Sonuç” birlikteliği basitçe bir Venn diyagramı ile
gösterilebilir.
Şekil 3.23. Birliktelik kuralının Venn Diyagramı ile gösterilmesi
Tanımda verilen
∩
=
ifadesi ile Şekil 3.23’te verilen küme kesişimi arasında bir
çelişki var gibi görülebilir. Teorik tanımdaki ayrık küme kavramı X ve Y’nin farklı
özelliklere sahip işlemler (değişkenler) olduğunu anlatmaktadır. Dolayısıyla kesişimleri
boş kümedir. Ancak şekilde gösterilen kesişim bölgesi, nesnelerin kesişimini değil de
işlemlerin kesişimini göstermektedir. Yani X ve Y’nin aynı anda (birlikte) gerçekleştiği
kayıtları ifade etmektedir.
⟹
birlikteliği;
( ⇒ ) şeklinde olursa tek nesneli birliktelik olur fakat daha kompleks birliktelikler
de oluşturulabilir.
( , , , , … . ⇒ ) çokludan teke birliktelik;
( ⇒ , , , , … ) tekten çokluya birliktelik;
( , , , , , … ⇒ , , , … ) çokludan çokluya birliktelik kuralları çıkarılabilir.
Çok boyutlu birliktelik kuralları, birden fazla karşılaştırma elemanı ya da özellik
içeren birliktelik kurallarıdır. Örneğin,
a ürününü alan müşterilerin b ürününü de
almaları tek boyutlu bir birliktelik iken müşterilerin hangi gün, hangi mağazadan neler
satın aldığı gibi birden fazla özelliği içeren birliktelikler çok boyutludur ve bu
birliktelikler OLAP küpü kullanılarak keşfedilmektedir (Birant, 2010).
61
Şekil 3.24. OLAP Küpü örneği
3.8.3. Destek, Güven ve Kaldıraç Kavramları (Support, Confidence and Lift)
Verilen bir veri kümesinden yüzlerce kural çıkarılabilir. Küme içerisindeki
nesne sayısı arttıkça kural sayısı da hızlı bir şekilde artmakta ve incelenmesi zor
olmaktadır.
nesne sayısı ve
= 3 −2
kural sayısı olmak üzere
+ 1
(3.25)
şeklinde hesaplanır. Küçük bir örnek ile durumu anlatalım:
Çizelge 3.3. Kural sayısı örneği
#
#
ı ı
5
180
10
57.002
100
5,1537752 × 10
Veritabanı kayıtlarında, nesnelerin gruplandırılması ile elde edilen bağımlılık
ilişkilerinin yüzde yüz geçerli olması beklenemez. Ancak, çıkarsaması yapılan kuralın,
veritabanının önemli bir kısmı tarafından desteklenmesi, yani söz konusu durumun
sıkça görülüyor olması gerekir. Oluşturulan birlikteliklerden hangisinin daha geçerli
olduğunu ortaya çıkarmak için analiz performansı yapılır. Performans kriteri olarak
temelde iki ölçü kullanılır: destek (support) ve güven (confidence).
62
büyük veri seti ve
kümesi işlemleri (transactions) içeren kümeler olsunlar.
ve ,
kümesi içerisindeki küçük nesne kümeleri olsunlar.
arasındaki A örüntüsü için (A : ⟹
ve
birliktelik kuralı için);
Destek, ilgilenilen öncül ve sonuç değişkenlerinin her ikisinin de birlikte meydana
gelme olasılığı olarak ifade edilir. Olasılık değeri, hem
hem de ’yi içeren işlemlerin
sayısının tüm işlemlerin sayısına oranı olarak gösterilir. s(T): T kümesindeki tüm
işlemlerin sayısını göstermek üzere
( )
( ∩ )
=
( )
( )=
ç
ş
ü ş
(3.25)
Güven ise kuralın doğruluğunun bir ölçüsü olup öncül özelliğinin gerçekleşmesinden
sonra sonuç özelliğinin gerçekleşmesi olasılığıdır. Güven değeri bir koşullu olasılık
ölçüsü olup hem
hem de
’yi içeren işlemlerin sayısının yalnızca
‘i içeren
işlemlerin sayısına oranı olarak gösterilir.
ü
( )
( | ) =
( )=
( ∩ )
( )
ç
ç
ş
=
ş
(3.26)
Genellikle oluşturulan kuralda büyük destek oranı istenilir. Güçlü destek ve yüksek
güven oranı olan kurallar güçlü kural (strong rules) olarak kabul edilir. Birliktelik
kuralının esas amacı bu şekilde tanımlanan güçlü ilişkileri tespit etmektir (Chen, 1996).
Ancak kuralın güçlü olabilmesi için hangi destek değeri güçlü ve hangi güven
değeri yüksek kabul edilecektir? Bu nedenle destek ve güven değerleri için bir eşik
değere ihtiyaç vardır. Bu değerler kullanıcı tarafından belirlenen minimum destek
(min.des - minsup) ve minimum güven (min.güv – minconf) değerleridir. O halde,
oluşturulan tüm kurallarda elde edilen destek ve güven değerlerinin beraberce min.des
ve min.güv değerlerinden yüksek olması gerekir. Birliktelik kurallarının destek ve
güven değerleri ne kadar büyük olursa, kurallarında oderece güçlü olduğu söylenmesine
rağmen bu durum her zaman doğru olmayabilir. Çünkü veri tabanından elde edilen bir
kuralda öncülün olması olasılığı, sonucun olması olasılığından daha düşük olmalıdır ki,
öncül sonuca katkı yapmış olsun. Bu durumun ölçüsü ise Kaldıraç (Lift) ile ifade
edilmektedir.
63
ç( )
ı
ü
( )
( )
( | )
( )
=
=
( ∩ )
( )∙ ( )
=
ç
( )=
ş
ç
ş
×
ç
ş
(3.27)
Yani öncül değişkeninin sonuç değişkenini hangi yönde (+→ −) ve hangi oranda
(0 → 1) etkilediğini gösterir (Agrawal, 1993).
Verilen bir veritabanında birliktelik kuralı oluşturmak için kullanıcı tarafından
önceden belirlenmiş olan minimum güven seviyesinden daha yüksek bir destek ve
güven seviyesine sahip kuralların çıkarılması gerekir. Minimum destek seviyesini
sağlayan kümelere geniş nesne kümesi, diğerlerine ise küçük nesne kümesi denir.
Algoritmaların nasıl oluşturulduğuna geçmeden önce birkaç örnekle destek ve güven
seviyelerini açıklayalım.
Yaş (kişi, “20-30”) ⇒ satın alır (kişi, “LCD TV”) [Destek= %2, Güven= %13]
kuralı; yaşları 20-30 arasında olan kişilerin tüm müşterilerin %2’si kadar olduğunu ve
bunların da %13’ünün LCD TV aldığını ifade etmektedir.
Yaş (kişi, “20-30”) ⋀ Cinsiyet (kişi, “erkek”) ⇒ satın alır (kişi, “LCD TV”)
[Destek= %1, Güven= %60]
İlk kural tek boyutluydu. Burada ise iki boyut vardır: yaş ve cinsiyet. Yani yaşları 20-30
arasında değişen ve erkek müşterilerden LCD TV alanların tüm müşterilere oranının %1
olduğunu ve yaşı 20-30 arasında olan erkek müşterilerin %60’ının LCD TV aldığını
ifade eder. Çok boyutlu bir örnek şöyle olabilir:
Yaş (kişi, “20-30”) ⋀ Cinsiyet (kişi, “erkek”) ⋀satın alır (kişi, “LCD TV”) ⇒
satın alır (kişi, “DVD Player”) [Destek= %1, Güven= %65]
Burada ise yaşları 20-30 arasında olan erkek müşterilerden LCD TV alanların %65’inin
aynı zamanda DVD Player da satın aldığı ifade edilmektedir.
3.8.4. Büyük Nesne Kümeleri (Large Itemsets)
Veri madenciliğinin temel çıkış noktası büyük veri kümeleri olmuştur. Hızla
büyüyen veri miktarı analiz ile ilgili yeni yöntemlerin ve algoritmaların gelişmesine
neden olmuş ve madencilik kavramı bugüne gelmiştir. Ticari işletme ve bilgi işlem
64
sektöründe faaliyet gösteren lider firmaların yaklaşık %90’ı çok büyük veri kümelerine
sahip olduklarını ve bunların mutlaka işleme konulması gerektiğini ifade etmektedirler.
Hand ve ark. (2001), veri madenciliğini büyük veri kümesi üzerinden “Veri madenciliği
büyük veri kümelerinin, önceden akla gelmeyen ilişkileri bulmak ve veriyi hem anlaşılır
hem de kullanılabilir hale getirecek biçimde özetlemek için analiz edilmesidir.” ifadesi
ile tanımlamaktadırlar. Büyük veri kümeleri üzerinde algoritma oluşturmak için veri
üzerinden çok kez geçmek gerekir. İlk taramada alt kümelere ait destek değerleri
sayılarak hangi kümenin büyük olduğuna karar verilir. Daha sonraki taramalarda
yalnızca büyük kümeler üzerinde işlem yaparak aday (candidate) kümeler belirlenir.
Aday kümeler için destek değerleri sayılır ve tarama sonunda hangi kümelerin
gerçekten büyük aday kümesi olduğu tespit edilir. Bu işlem yeni aday küme
bulunmayıncaya kadar devam eder. Bu işlem ile ilgili geliştirilen AIS, SETM, Apriori,
AprioriTid gibi algoritmalar vardır. Bunlar arasındaki farklar ileriki bölümlerde
açıklanacaktır. Büyük veritabanlarından birliktelik kuralları elde etmek iki adımdan
oluşan bir süreçtir:
1- En küçük destek değerini sağlayan tüm geniş nesne kümelerini bulma
2- Bulanan geniş nesne kümelerinden minimum destek ve güven koşullarını
sağlayan kurallar oluşturma (Srikant, 1996).
3.8.5. Örüntü ve Kural Çıkarma (Pattern Recognition and Rule Extraction)
Makine öğrenmesi sistemlerinde sürekli tekrar eden veya devam eden kuralları
keşfetmeye örüntü tanıma veya kural çıkarma denilmektedir. Sınıflama en basitinden bir
örüntü tanımadır. Çünkü her girdi değerini bir sınıfa atamaya çalışır. Örüntü tanıma
teknolojileri birçok alanda kullanılmaktadır. Yüz tanıma teknolojisi, konuşma tanıma
teknolojisi, web sitesi içerisinde belli bir metnin taranması, protein zincirlerinde sekans
etiketleme gibi alanlarda örüntülerin ortaya çıkarılması öncelikli konulardandır. Aynı
şekilde, birliktelik kuralı ile ilgili veri analizi yaparken de en önemli olay kural
belirleme veya örüntü tanımadır. Birçok veri analizinde problem başlangıçta bellidir.
Ancak birliktelik kuralı analizinde veri ile ilgili herhangi bir öngörümüz yoktur.
Yalnızca min.des ve min.güv değerleri belirlenerek veriler analiz edilir ve sonucunda
değişkenler için bir örüntü bulmaya çalışılır. Her geçen gün yeni örüntü tanıma
algoritmaları geliştirilmektedir. Günümüzde veriler farklı tarzda derlenmekte veya farklı
sektörlere ait veriler karşımıza çıkmaktadır. Bu nedenle, her algoritmanın yavaş kaldığı
65
veya analizin daha fazla hafıza gerektirdiği durumlarda araştırmacılar daha hızlı örüntü
tanıma algoritmaları üzerinde çalışmaktadırlar (Bayardo, 1999).
3.8.6. Algoritmalar
3.8.6.1. AIS Algoritması
1993 yılında Agrawal tarafından, geniş nesne kümeleri oluşturmak için
geliştirilmiş bir algoritmadır. Veritabanındaki nesnelerin A’dan Z’ye sıralanması kısıtını
taşır. AIS algoritması veritabanını birçok kez tarar ve her taramada tüm işlemleri okur.
İlk tarama esnasında veritabanındaki tüm nesneleri sayarak hangilerinin geniş olduğunu
belirler. Geniş olanları aday nesne olarak işaretler. Bir işlem tarandıktan sonra, bir
önceki taramada geniş oldukları belirlenen nesne kümeleriyle, o işlemin nesneleri
arasındaki nesne kümeleri belirlenir. Belirlenen bu ortak nesne kümeleri işlemde
mevcut olan diğer nesnelerle birleştirilerek yeni aday kümeler oluşturulur. Herhangi bir
I nesne kümesi bir işlemdeki nesnelerle birleşip aday kümelerden birini oluşturabilmesi
için, birleşeceği nesnenin hem geniş olması hem de harf sırası açısından nesne kümesi
içerisindeki tüm nesnelerden sonra geliyor olması gerekir. Bu işlemin gerçekleşmesi
için bir budama tekniği kullanılır. Bu tekniğe göre, aday kümeler içindeki gereksiz
kümeler silinir. Sonra, her aday kümenin desteği hesaplanır. Daha önce belirlenen
minimum destek seviyesine eşit veya büyük olan kümeler geniş nesne kümesi olarak
işaretlenir. İşaretlenen geniş nesne kümeleri aday kümeleri belirlemek için kullanılır
(Agrawal, 1993).
3.8.6.2. SETM Algoritması
AIS algoritmasından farklı olarak bu algoritmada
geniş nesne kümesinin her
bir elemanı iki parametreden oluşur. Bunlar, nesnenin ismi ve nesneyi ayırt etmeye
yarayacak bir özellik kodudur. Algoritma işletilirken bu numara bir TID (Transaction
Identification)-işlem numarası olarak kullanılır.
∈
olmak üzere
: < TID, isim > formatındadır.
SETM algoritması da nesneleri teker teker sayar ve hangilerinin geniş nesne
olduğunu belirler. Sonraki taramada yalnızca işaretlenen kümeleri tarayarak aday
kümeleri belirler. Tarama esnasında TID bilgisini de saklar. Aday nesne kümeleri
isimlerine göre sıralanır ve küçük nesne kümeleri silinir. Eğer isme göre değil de
TID’ye göre sıralanırsa geniş nesne kümeleri TID’ye göre belirlenir ve küçük nesne
66
kümeleri silinir. SETM algoritması TID bilgisini de tuttuğundan yer karmaşıklığını
arttırmaktadır. Ayrıca hem isim hem de TID sıralaması yapılması zaman karmaşıklığını
arttırdığından dezavantaj sayılmaktadır (Srikant, 1995).
3.8.6.3. Apriori Algoritması
Birliktelik kuralları içerisinde en bilinen ve en çok kullanılan bir algoritmadır.
AIS ve SETM algoritmaları birçok kez tarama yapar ve her taramada aday nesne
kümeleri üretilir. Yeni aday nesne kümeleri ise diğer işlemlerde elde edilen kümelerin
birleştirilmesiyle üretilir. Bu durum, aslında küçük nesne kümesi olan birçok aday nesne
kümesinin sanki geniş nesne kümesiymiş gibi üretilmesi sonucunu doğurur. Ancak
apriori algoritması da veritabanını birçok kez tarayıp her bir aday nesne kümesinin
destek seviyesini daha önceden belirlenen min.des seviyesi ile karşılaştırmasına rağmen
bir sonraki taramada yalnızca geniş olarak belirlenen nesne kümelerinden başlar. Fakat
bu işi veritabanındaki işlemleri işin içine sokmadan, yalnızca geniş nesne kümesi olarak
tespit edilmiş nesne kümelerinin alt kümelerini tarayarak elde eder. K adet nesneden
oluşmuş bir kümenin k-1 adet nesneye sahip geniş nesne kümelerinin birleştirilmesi ve
alt kümeleri geniş olmayanların silinmesi esasıyla elde edilir. Birleştirme ve silme
işlemleri sonucunda daha az sayıda aday nesne kümesi oluşacaktır. Agrawal ve Srikant
tarafından 20. VLDB (Very Large Data Bases) Konferansında (1994) sunulan apriori
algoritmasının kodu şu şekildedir:
L1 = {Geniş 1-nesne kümeleri};
k=2; //k, nesne sayısını belirtir
while L k-1 = 0 do
begin
Ck = apriori-gen(L k-1); // Ck; L k-1 kümesinden oluşturulan k sayılı
yeni aday kümesi
for all t∈ D işlemleri do
begin
Ct = altküme(C k,t); // t’deki her nesnenin tüm öncüllerini t’ye ekle,
çakışmaları gider
k=k+1;
end
Lk = min-desteğe sahip tüm Ck adayları için sayma başlat;
end
end
Cevap =
67
Bu algoritma şu şekilde özetlenebilir:
Verilerin ilk taranması sırasında, geniş nesne kümelerinin tespiti için tüm nesneler
sayılır. Bir sonraki tarama, k. tarama iki aşamadan oluşur. Apriori-gen fonksiyonu ile k1. taramada elde edilen, Lk-1 nesne kümeleriyle Ck aday nesne kümeleri oluşturulur.
Veritabanı taranarak Ck’daki adayların desteği sayılır.
Örnek: Aşağıdaki verilere min.des %30 ve min.güv %60 olacak şekilde apriori
algoritmasını uygulayınız.
Çizelge 3.4. Apriori uygulaması
ID
100
200
300
400
500
600
Sepet
Elma, Muz, Dondurma, Simit
Elma, Muz, Simit
Yumurta, simit
Yumurta, Erik
Elma, Muz
Elma, Muz, Yumurta
↓
Birinci tarama
Ürün
Miktar
Elma
4
Muz
4
Dondurma
1
Simit
3
Yumurta
3
Erik
1
Destek
%67
%67
%17
%50
%50
%17
↓
İkinci tarama
Ürün
Miktar
Elma, Muz
4
Elma, Simit
2
Elma, Yumurta
1
Muz, Simit
2
Muz, Yumurta
1
Simit, Yumurta
1
Destek
%67
%33
%17
%33
%17
%17
↓
Üçüncü tarama
Ürün
Elma, Muz, Simit
Miktar
2
Destek
%33
Bu durumda, geniş nesne kümeleri ve destek ile güven değerleri şöyle olur:
Elma 4 kayıt  Muz ve Simit alır  2 kayıt [Destek %33, Güven %50]
Muz  4 kayıt Elma ve Simit alır  2 kayıt [Destek %33, Güven %50]
Simit 3 Kayıt  Elma ve Muz alır  2 kayıt [Destek %33, Güven %67]
68
Elma ve Muz  4 kayıt  Simit alır  2 kayıt [Destek %33, Güven %50]
Elma ve Simit 2 kayıt  Muz alır  2 kayıt [Destek %33, Güven %100]
3. ve 5. Kayıtlar %30 destek ve %60 güven değerlerinin üzerinde bir seviyeye sahip
olduklarından geniş nesne kümeleri olurlar. Bu durumda, Elma-Muz-Simit en geniş
nesne kümesidir.
3.8.6.4. Apriori-TID Algoritması
Tüm algoritmalar destek hesaplamak için tüm veritabanını tararlar ancak, her
aşamada veritabanının tamamının taranmasına gerek yoktur. Buna göre Agrawal,
AprioriTid algoritmasını önermiştir. Bu algoritma apriori-gen fonksiyonunu kullanır. İlk
geçişten sonra veritabanı taranmaz bunun için Ck kullanılır. Ck’nın her elemanı
<TID, Nesne ismi {Xk}> formundadır. Önerilen algoritma şu şekildedir:
C1 = D veritabanı
for
k=2;
Lk-1 = 0;
k=k+1;
do begin
Ck = apriori-gen(Lk-1); // yeni adaylar
Ck =0;
for all işlemler t ∈ Ck-1
do begin // TID numaralı işlemdeki Ck içinde bulunan tüm aday nesne
kümelerini belirle
Ct = {c ∈ Ck | (c-ck) ∈ t.nesne kümeleri ⋀ (c-ck-1) ∈ t.nesne kümeleri}
for all adaylar c ∈Ct do
c=c+1;
If (ct=0) then Ck = Ck + <t.TID, Ct>
end
Lk = { c ∈ Ck | c ≥ min-destek}
end
Cevap=
69
3.8.6.5. Paralel Veri Madenciliğinde Birliktelik (Parallel Data Mining)
Bunların yanı sıra çeşitli algoritmalar geliştirilmiştir. Özellikle daha hızlı
çalışacak ve kullandığı veritabanını yormayacak, hafızada çok miktarda veri kaydı
tutmayacak algoritmalar daha fazla tercih edilmektedir. Apriori-hybrid, OCD (Off-line
Candidate
Determination),
Partitioning
tekniği,
Örnekleme
tekniği,
CARMA
(Continuous Association Rule Mining Algorithm), CCD (Count Distribution), PDM
Parallel Data Mining), CCPD (Common Candidate Partitioned Database), DD (Data
Distribution), IDD (Intelligent Data Distribution), HRA (Hash-based Parallel Mining of
Association Rules) ve PAR (Parallel Association Rule) gibi son yıllarda geliştirilmiş
birçok algoritma vardır (Örs, 2010).
3.8.7. Negatif Birliktelik Kuralı (Negative Association Rule)
Birliktelik kuralı, iki değişken arasındaki güçlü ilişkileri bulmak için
kullanılmaktadır. Yani, değişkenler arasındaki korelasyon güçlü ve pozitif olmalıdır.
Ancak, güçlü olmayan ilişkiler de söz konusu olabilir ve gizli kalmış küçük
korelasyonların büyük veri kümeleri içerisinde önemi olabilir. Bu tür ilişkileri bulmak
için bazı yayınlarda önermeler yapılmıştır. Negatif birliktelikleri görmenin temeli şuna
dayanmaktadır:
“EĞER X, ÖYLEYSE Y” bir güçlü kural ise, yani min.des/min.güv eşik
değerlerini sağlıyorsa X ve Y arasında pozitif bir kuraldan söz edilebilir. Fakat “EĞER
X, ÖYLEYSE –Y” gibi bir kural da karşımıza çıkabilir. Aynı şekilde,
⇒ − ;− ⇒ −
⇒−
gibi kurallar da bizler için fikir verebilecek gizli kalmış kurallar olabilirler. Negatif
birliktelik kuralı genel literatürde “−“ sembolü ile gösterilmektedir. Ancak bu sembol,
küme teorisi ile uyuşmamaktadır ve yanlış algılamaya sebep olabilir. Bu nedenle,
bundan böyle kümenin olumsuzu (veya tümleyeni)
∗
şeklinde gösterilecektir. Ayrıca
dikotom değer alan bir veri kümesi için (-1=0 veya -0=1) olabilirken ikiden fazla
kategorisi olan kümeler için bu notasyon yetersiz kalmaktadır.
Aslında negatif kurallar, pozitif kuralları çıkarırken eşik seviyelerini düşük
tutarak elde edilebilir. Ancak bu durumda kural sayısı patlaması ile karşı karşıya
kalınacaktır. Bu nedenle, başka bir algoritma ile minimum sayıda kural elde edilmelidir.
Market sepeti analizini tekrar ele alalım. Pozitif kurallar, “eğer süt alıyorsa, büyük bir
olasılıkla ekmek te alır” şeklindeydi. Negatif kural olarak düşünüldüğünde ise “eğer süt
70
alıyorsa, çok az bir olasılıkla turşu da alır” şeklinde olacaktır. Eğer iki değişken
bağımsız iseler aralarındaki korelasyon 0 olacaktır ve negatif kural çıkmayacaktır
(Ayad, 2000). Olayı dört gözlü tablo üzerinde görmeye çalışalım:
Çizelge 3.5. Negatif kural için dört gözlü tablo
∗
Toplam
∗
Toplam
Tabloya göre
sıklık değeri pozitif kuralları,
,
ve
sıklık değerleri ise
negatif kuraları göstermektedir. Dört gözlü tablolardaki ilişki ki-kare istatistiği ile
hesaplanabiliyordu. Bu durumda, O(d) gözlenen sepet değeri, E(d) ise beklenen sepet
değeri olmak üzere ki-kare değeri
=∑
(
)
(3.28)
ile hesaplanır. Pozitif kurallar
ile ilişkilidir. Ne kadar büyükse destek ve güven
,
değerleri de o ölçüde büyük olacaktır. Negatif kurallar için ise
veya
‘nin
herhangi birinin yeterince büyük olması bizlere güçlü negatif kurallar verecektir.
Çizelge 3.6. Negatif kural için satış örneği
A marketi
∗
Toplam
ü
ü ∗
220
74
97
45
Toplam
438
A marketinden alışveriş yapan 438 müşterinin süt ve ekmek satın alma durumunu
gösteren tabloya göre; 220 kişi hem süt hem de ekmek almış, 74 ve 97 müşteri iki
üründen birisini almış, 45 müşteri ise ne ekmek ne de süt almıştır. Dört farklı kural için
destek ve güven değerleri hesaplanabilir. Yalnızca iki ürün için durum böyleyken veri
kümesi ve değişken sayısı büyüdükçe ilişkileri görmek zorlaşacaktır. Güçlü algoritmalar
sayesinde veri tabanlarını hızlı bir şekilde taramak daha kolay olacaktır. Ancak büyük
71
veritabanlarını tarayacak algoritmaların yazılması zor ve dikkat gerektirmektedir.
Apriori algoritmasının daha hızlı çalışması için birçok yeni yaklaşımlar geliştirilirken
bir de tüm negatif birliktelikleri tarayacak ve ortaya çıkaracak yaklaşımların
geliştirilmesi için çalışmalar yapılmaktadır. Apriori tarzı algoritmaların temel özelliği
en iyi budama tekniklerinin algoritmaya yerleştirilmesidir. Bu nedenle eşik değerleri
önceden belirlenerek budama gerçekleştirilmektedir. O halde negatif birlikteliklerde
tarafların ilişkili olması için hangi eşik değerlerini sağlaması gerekir?
Tüm durumlar için farklı eşik değerleri tespit etmek gerekecektir. Bu noktadan
hareketle her bir kural için min.des, min.güv ve min.il değerleri tespit edilip bunlara
göre anlamlı kurallar çıkarılabilir. Pozitif yönde birlikteliğe sahip kurallar için
( ⇒ )= ( ∩ )≥
ü
.
( ⇒ )= ( | )≥
(3.29)
. ü
(3.30)
olmalıydı. Bu değerler sık nesne kümelerinin belirlenmesine yeterli olmuyor, ancak
güçlü kural ölçütü olarak yetersiz kalıyorlardı. Bu nedenle, ilginçlik ölçütleri içerisinden
lift değerini kullanmıştık. Bu durumda,
( ∪ )
( ⇒ )=
=
( ). ( )
( | )
( )
≥
.
(3.31)
olacaktır. lift ölçütü için üç durum söz konusu olur:
1.
( ⇒ ) = 1
,
2.
( ⇒ ) > 1
,
( | ) = ( )
( | ) > ( )
3.
( ⇒ ) < 1
ğı
ı
ı .
,
ğı
ı ı .
,
ğı
ı ı .
,
( | ) < ( )
ğ ş ,− ,
ğı
ı ı .
,
( | ) − ( ) ç − ( ) ≤ ( | ) − ( ) < 0
ℎ
,0 <
( | )− ( )
≤ 1
− ( )
ı ı .
.
Bu oran ne kadar büyükse negatif bağımlılık ta o kadar güçlü olacaktır. Negatif
birliktelik kuralına göre sık nesne kümelerinin belirlenmesi için aynı tarz kısıtları
sıralayabiliriz:
a.
( ⟹
∗)
≥
.
b. ü
( ⟹
∗)
≥
. ü
c.
( ⟹
∗)
≥
.
72
Burada
( ⟹
ü
( ⟹
∗)
∗)
= ( )− ( ∩ )
(3.32)
= (− | ) = 1 − ( | )
(3.32)
şeklinde tanımlanabilir.
Negatif birliktelikleri iki durumda düşünebiliriz:
( )
( ) değerleri oldukça büyüktür. Ancak
( ∩ ) yeterince büyük
olmayabilir. Bu durumda eşik seviyelerinin büyük kabul edilmesi ile çok sayıda pozitif
kurallar elde edilmez ve negatif kuralların sayısı çok olacaktır. Örneğin: “Çay ve kahve
satışları çok yüksektir. Ancak her ikisini birden satın alanların sayısı az olabilir. Olasılık
azalacağından her iki ürünü birden satın alanların korelasyonu düşük olacaktır.
( )
( ) den birisi veya her ikisinin değeri oldukça düşük olabilir. Örneğin:
“Marketteki bazı ürünlerin satış miktarı çok sık değildir. Bu durumda oluşacak
birliktelikler çok küçük olacaktır. Çay alan birisinin aynı zamanda limon tuzu alma
olasılığı düşüktür. Aynı durum markalar için de geçerli olabilir. T markasının tuvalet
kağıdının satış oranı yüksek olurken S markasının satışı çok az olabileceğinden çay ile
T marka tuvalet kağıdı yüksek güven değeri verirken, çay ile S marka tuvalet kağıdının
güven değeri eşik seviyesinin altında kalacağından negatif kural şeklinde düşünülebilir.
Bu tür birlikteliklere “Seyrek Birliktelik Kuralı (Rare Association Rule)” denilmektedir.
Buna göre Negatif Birliktelik Kuralı (i) ile Seyrek Birliktelik Kuralı (ii) farklı
olmaktadır; her iki durumu ayrıştırmak ve ayrı ayrı incelemek gerekir.
Apriori algoritması min.güv eşik değerine göre budama yapıyor ve yalnızca sık nesne
kümelerini ortaya çıkarıp tarama yapıyordu. Negatif ve seyrek birliktelikleri ortaya
çıkarabilmek için budama algoritmasını değiştirmek gerekecektir. Bu işlemi, sisteme
yük getirmeden ve çok sayıda tarama yapmadan uygulamak gerekmektedir. Ayrıca
burada iki durum karşımıza çıkmaktadır: hem sık nesne kümelerinde var olan negatif
kuralları hem de sık olmayan nesne kümelerindeki pozitif kuralları ortaya çıkarmak.
73
Veritabanı
Pozitif
kurallar
Sık nesne kümesi
Negatif
birliktelikler
Sık
Seyrek
olmayan
nesne kümesi
birliktelikler
Şekil 3.25. Pozitif ve negatif birlikteliklerin veritabanında gösterilmesi
Özellikle sağlık verilerinde bu durumlar sıklıkla karşımıza çıkmaktadır.
İki alerjen madde ayrı ayrı ekili olurken, birlikte çok seyrek olarak reaksiyon
gösterebilmektedir. Bu tezde üzerinde çalıştığımız veri kümesi de bu tür birlikteliklerin
görülebileceği yapıya sahiptir. Birçok değişken ikili kategoriye sahip olup (0,1)
bazılarının hastalarda görülme oranı azdır. Özellikle alkol ve sigara kullanımı ile
hipotiroid komorbiditesi az olduğundan bunlara bağlı kurallar negatif çıkmaktadır.
Ayrıca satış verilerinde çok küçük güven değerleri bir anlam ifade etmezken sağlık
verilerinde çok küçük olasılıkların bile önemli anlamı olabilir. Negatif veya seyrek
birliktelik kural çıkarımı hala tam olarak keşfedilmemiş bir alandır. Bazı algoritma
önermeleri yapılmış ancak üzerinde çalışılması gereken yerler vardır. Destek, güven
veya ilginçlik ölçütleri üzerinden çeşitli yöntemler önerilmiştir. Tan, et al. (2000)
tarafından
ilginçlik ölçütü budama sürecinde min.il olarak önerilmiştir.
( ∩ )
( , ) =
( ). ( )
=
( ∩ )
.
( ). ( )
Hamano ve Sato (2004) tarafından
( ∪ )
(3.33)
ölçütünün bazı olumsuz yanları belirtilmiş ve
ölçütünü önermişlerdir.
Φ( , ) = ( ∩ ) ( ). ( )
(3.34)
( ). ( ∗). ( ). ( ∗)
korelasyon fonksiyonu olmak üzere
= ( ⟹ ) =
=
( ∩ ) ( ). ( )
( ∩ ).(
( ). ( )
( )
, ğ Φ( , ) ≥ 0
( ))
( ∩ )
( ∩ ) . (
, . .
)
(3.35)
74
Bu ölçütte,
pozitif birlikteliği,
ise seyrek birlikteliği göstermektedir.
Zhang ve Zhang (2002) ise PL (Positive Itemset of Interest) ve NL (Negative
Itemset of Interest) ölçütleri ile aşağıdaki algoritmayı önermişlerdir.
PL: pozitif sık nesne kümesi
NL: negatif sık nesne kümesi
Temk: Veritabanındaki tüm k-nesne kümeleri
Fi: tüm sık nesne kümeleri
Nk:Temk’deki sık olmayan nesne kümeleri veya Nk=Temk-Fk
olmak üzere
75
procedure ilginç_nesne_kümesi_budama
begin
input D, min.des
output PL, NL
let PL=0;
let NL=0;
let F1 = {sık nesne kümesi-1};
let PL=PL ∪F1;
for (k=2; Lk-1≠0 ve Sk-1 ≠0; k++) do
begin // D kümesindeki tüm mümkün olan ilginç pozitif ve negatif
k-nesne kümesini üret
let Temk=Fi (1≤ i < k-1)’den çıkarılan k-nesne kümesi;
for t∈D do
begin // t’de hangi k-nesne kümesinin bulunduğunu kontrol et
let Temk = hem t hem de Temk’de bulunan k-nesne kümesi;
for A⊂Temt do
let A.count =A.count+1;
end
let Ck=her bir k-nesne kümesinin Lk-1’de en azından
bir alt küme içerdiği Temk’de bulunan k-nesne kümesi;
let Fk={c| c∈Ck ∧ (destek(c)=
.
| |
≥ min. des)};
let Lk=Fk;
let Nk=Temk - Fk; //Lk’deki ilginç olmayan k-nesne kümelerini buda
for i∈Lk do begin
if i ilginç değilse then
let Lk=Lk-{i};
let PL= PL ∪ Lk;
let Sk={i| i∈Nk ve i negatif nesne kümesi};
// Sk’deki ilginç olmayan
k-nesne kümelerini buda
end
for i∈Sk do begin
if i ilginç değilse then
let Sk=Sk-{i};
let NL= NL ∪ Sk;
end
end
end
output PLve NL;
end
3.9. Önerilen İlginçlik Ölçütü
Pozitif birliktelik kurallarını bulmak için çok sayıda algoritma önerilmiştir.
Algoritmalar içerisinde budama işlemi için de bir takım eşik değerleri ve ayrıca kuralın
76
gücünü göstermek için bir çok ölçüt önerilmiştir. Ancak negatif kural çıkarımı için
yeterince algoritma ve ölçüt çalışması yoktur. Daha önceki bölümde söz ettiğimiz gibi
iki önemli ve büyük çalışma Tan et al.(2000) ve Hamano et al.(2004) tarafından
yapılmıştır. Bu tez çalışmasında Hamano ve Sato’nun çalışmaları ışığında, önerdikleri
lift değeri
revize edilerek yeni bir ilginçlik ölçütü önerilecektir. Yukarıda da
belirttiğimiz gibi özellikle sağlık verilerinde en küçük ayrıntıları bile kaçırmamak
gerekmektedir. Bu nedenle, negatif birliktelikler içerisinde ilginçlik değeri büyük olan
kuralları tespit etmek için yeni bir ilginçlik ölçütü kullanılacaktır.
ölçütünde negatif
kural içerisinde olması gereken durumlar pozitif birliktelik olarak ortaya çıkmaktadır.
Bu durum aşağıda basit bir örnek ile anlatılacaktır.
Önerdiğimiz ilginçlik ölçütü MINN (Measure of INterestingness for Negative
rules) olacaktır.
( ⟹
∗)
=
|
( ).
( ∗)
ü ( ⟹ ∗ )|
(3.36)
( ∗ ))
( )).(
(
Φ ölçütü yalnızca nesnelerin olasılıkları kullanılarak hesaplanmaktadır. Fakat
MINN ölçütü nesnelere ilişkin destek ve güven değerlerini kullanmaktadır. Bu durum
ölçütü daha da güçlendirmektedir. Çünkü güven değeri koşullu olasılık ile
bulunmaktadır. Φ ölçütünde negatif değerler karşımıza çıkmaktadır. Ancak MINN
ölçütünün negatif olma olasılığı yoktur. Çünkü
0<
( ) < 1 ve 0 < ü ( ⟹
0<
( ).
( ).
(
(
∗
∗
)<1
∗)
< 1 dir.
olacaktır.
)< ü ( ⟹
∗)
olma ihtimali de vardır. Bu nedenle, karekök işlemi içerisinde ifadenin mutlak değeri
alınmıştır. 1 −
( ) > 0 daima pozitif olacağından
∈ (0, ∞) olacaktır.
Burada üst sınır ∞ ile belirtilmesine rağmen destek değerleri maksimum olsa dahi aşırı
büyük değer almaz. Ancak veritabanına göre ölçüt değeri değişeceğinden herhangi bir
üst sınır belirtilmemiştir. Peki neden böyle bir ölçüt formülü seçilmiştir? IS ve Φ
ölçütlerinin alacağı değerler incelendiğinde bazı eksik yanlarının olduğu görülmüş ve
her iki ölçüt revize edilerek bazı matematiksel dönüşümler yarımıyla MINN ölçütü
önerilmiştir.
77
Örnek: 10 adet kayıttan oluşan ikili bir örnek veri kümesi alalım. 1:evet, 0:hayır
şeklinde düzenlenmiş olsun. A,B ve C nesneleri için Φ ve MINN ölçütlerini
karşılaştıralım.
Çizelge 3.7. Örnek veri seti
A
B
C
1
1
1
0
0
1
0
1
1
0
1
0
1
1
0
1
1
0
0
0
0
0
0
0
0
0
1
1
0
1
Tablodan görüleceği gibi ( ) = 0,6; ( ) = 0,5 ve ( ) = 0,3 olur.
Öncelikle A ve –B kuralı için ilginçlik ölçütlerini bulalım.
∗)
Φ( ⟹
∗)
( ∩
=
− ( ). (
∗
∗ ).
∗)
( ). (
( ⟹
=
∗)
|
=
( ). (
)
=
0,3 − 0,6.0,5
0,6.0,4.0,5.0,5
=0
( ).
( ∗ ) − ü ( ⟹ ∗ )|
( )) . (1 −
( ∗ ))
(1 −
|0,6.0,5 − 0,3/0,6| 0,44
=
= 2,23
0,4.0,5
0,2
C nesnesi için negatif durumların oranı daha yüksek olduğundan A ve
∗
kuralları için
lift ölçütlerini araştıralım:
Φ( ⟹
∗)
=
( ∩
∗)
( ). (
Φ değeri negatif olduğundan
− ( ). (
∗
∗ ).
∗)
( ). (
)
=
0,4 − 0,6.0,7
= −0,09
√0,6.0,4.0,7.0,3
ölçütü olarak D değerini hesaplarız ve
= 0,11
bulunur.
( ⟹
∗)
=
|0,6.0,7 − 0,5/0,6|
= 5,35
(1 − 0,6). (1 − 0,7)
Her iki durumda da MINN ölçütleri daha yüksek değerlere sahip olup eşik değeri olarak
kullanıldığı takdirde daha ilginç (güçlü) kuralları verecektir. Uygulama bölümünde tez
veri kümesi üzerinde bazı uygulama sonuçları görülecektir.
78
3.10. Genelleştirilmiş Birliktelik Kuralları (Generalized Rule Extraction)
Smyth ve Goodman (1992), “Genelleştirilmiş Kural Çıkarıma Teorik Bir
Yaklaşım” adlı yayınlarında kural çıkarma için optimal ölçü ile ilgili bir algoritma
geliştirmişlerdir. Algoritma, geniş nesne kümelerinikullanmak yerine aday birliktelik
kuralının ilginçliğini belirlemede kuramsal bir yaklaşımkullanmaktadır.
J-ilginçlik ölçütü:
= ( ). [ ( | ).
( | )
( )
+ 1 − ( | ) . ln
( | )
( )
]
(3.37)
formülü ile bulunmaktadır. Burada;
-
( ),
’in olasılığıdır ve öncülün kapsamasının bir ölçütüdür. Gözlenen x
değerinin güvenidir. Öncül değişkenin sıklık dağılımından hesaplanabilir.
-
( ),
’nin güven değerini ya da önsel olasılığını göstermektedir. y
değişkeninin güven değeridir.
-
( | ),
bilindiğinde y’nin koşullu olasılığıdır. Birliktelik kuralları
terminolojisinde kuralın güven değeri olarak geçmektedir.
GRI algoritmasında minimum güven ve destek değerinin yanı sıra kural sayısının da
kullanıcı tarafından belirlenmesine olanak sağlanmıştır. Algoritma tek öncüle sahip
kural oluşturur ve ilginçlik ölçütü olan J’yi hesaplar ve kural tablosundaki en küçük J
değerine sahip kuraldan büyük ise bu kural tablodaki diğer kurallara eklenir ve
tablodaki en küçük J değerine sahip kural tablodan çıkarılır. Böylece kural sayısı
korunmuş olur.
J istatistiğinin yüksek değere sahip olması ( 1’e yakın) ( ) olasılığının yüksek
olması ile ilişkilidir. Yani, öncülün daha yaygın olduğunu ve veri kümesini daha fazla
kapsadığını yansıtır. J-ölçüsü, hem çok yüksek hem de çok düşük güven değerine sahip
olan kuralları destekler. Eğer p(y|x) çok küçük bir değere sahipse, araştırmacı
birlikteliğin tersini düşünerek negatif birliktelik kuralı oluşturabilir ve bu negatiflik
ilginç olabilir. Örneğin R kuralı;
R: EĞER bira alıyorsa, O HALDE el kremi de alır.
şeklinde tanımlanmış ve güven değeri olarak p(y|x)= %0,01 değerine sahipse, J-ölçüsü
de küçük olacağından R’nin negatif formu düşünülür ve
~R: EĞER bira alıyorsa, O HALDE el kremi almaz.
kuralı için güven değeri %99,99 olur (Larose, 2005).
79
Agrawal ve ark. (1994) ise genelleştirilmiş kural çıkarma işlemini taksonomi
şeklinde açıklamışlardır. Her işlemin bir nesne kümesi olduğu ve nesnelerin
tanımlandığı bir taksonomiye sahip olan işlem veritabanı verilsin. Taksonominin
herhangi bir seviyesindeki nesneler arasında birliktelikler buluruz. Apriori algoritmasını
bir örnek küme üzerinde açıklamaya çalışalım:
L,nesneler kümesi ve T, taksonomi olarak verilsin.
İşlenmiş
Gıda
Unlu
Mamul
Ekmek
İşlenmemiş
Gıda
Dondurma
Domates
Salatalık
Biber
Simit
Şekil 3.26. T-taksonomi örneği
L= {ekmek, simit, dondurma, domates, salatalık, biber} olsun.
Kullanıcı tarafından belirlenmiş%30 destek ve %60 güven seviyesinden daha büyük
değerlere sahipken geniş nesne kümesini bulunuz.
Çizelge 3.8. Taksonomiye uygun olarak nesne tarama
İşlem No(TID)
100
200
300
400
500
600
Sepet
Domates, Salatalık, Dondurma, Simit
Domates, Salatalık, Simit
Ekmek, simit
Ekmek, Biber
Domates, Salatalık
Domates, Salatalık, Ekmek
↓
Birinci tarama (Geniş nesne kümeleri)
Ürün
Miktar
Destek
Domates
4
%67
Salatalık
4
%67
Biber
1
%17
Simit
3
%50
80
Dondurma
Erik
3
1
%50
%17
↓
İkinci tarama (Budanmış geniş nesne kümeleri)
Ürün
Miktar
Destek
Domates, Salatalık
4
%67
Domates, Simit
2
%33
Domates, Ekmek
1
%17
Salatalık, Simit
2
%33
Salatalık, Ekmek
1
%17
Ekmek, Simit
1
%17
↓
Üçüncü tarama (Aday Kümeler)
Ürün
Domates, Salatalık, Simit
Miktar
2
Destek
%33
Bu durumda, destek ve güven değerleri için kurallar şunlardır:
Domates 4 kayıt  Salatalık ve Simit alır  2 kayıt [Destek %33, Güven %50]
Salatalık 4 kayıt Domates ve Simit alır  2 kayıt [Destek %33, Güven %50]
Simit 3 Kayıt  Domates ve Salatalık alır  2 kayıt [Destek %33, Güven %67]
Domates ve Salatalık  4 kayıt  Simit alır  2 kayıt [Destek %33, Güven %50]
Domates ve Simit 2 kayıt  Muz alır  2 kayıt [Destek %33, Güven %100]
3. ve 5. işlemler en geniş nesne kümeleri olurlar. Çünkü,
destek > min.des ve güven > min.güv.
Yani %33 > %30, %67 > %60 ve %100 > %60.
Bu durumda, domates, salatalık ve simit en geniş nesne kümesidir. Güven seviyesi ise
değişmektedir. Her domates ve simit alan salatalık ta almıştır fakat her domates ve
salatalık alan simit almıştır diyemeyiz.
3.11. Birliktelik Kuralı Uygulama Alanları
Birliktelik kuralı algoritmaları ekonomiden sağlığa kadar birçok alanda
kullanılmaktadır. Denetimli veya denetimsiz öğrenme metotları içerisine net olarak
girmediğinden her iki türdeki veri kümelerine uygulanma şansı vardır. Market sepeti
analizi olarak gelişmiş ve bankacılıkta kredilendirme riski belirlenmesi için
kullanılmaya başlanmıştır. Yoğunlukla müşteri temelli veri tabanlarının mevcut olduğu
alanlarda kullanılmakla birlikte çok fazla verinin bulunduğu iletişim sistemlerinde de
bazı ilişkilerin ortaya çıkarılması için, özellikle sesli iletişim sistemlerindeki parazitlerin
ortaya çıkarılmasında tercih edilmektedir (Kotsiantis, 2006).
81
3.12. Veri Madenciliği ve Sağlık Sektörü Uygulamaları
Tıp sektörü verinin yoğun olarak kullanıldığı ve depolandığı alanlardan birisidir.
Bu nedenle veri madenciliğinin hemen hemen her yöntemi bu sektörde kullanılmaya
başlanmıştır. Kümeleme analizleri, destek vektör makineleri, k-means yöntemler, yapay
sinir ağları gibi yöntemleri ile veri indirgeme uygulanmaktadır. Makine öğreniminin ilk
olarak 1999 yılında tıpta kullanılmasıyla birlikte veri madenciliği de sektör içerisine
iyice girdi. Bu teknikler, diagnoz, prognoz, tedavi yöntemleri, post-op durumların
tahmin edilmesi gibi birçok konuda bilgi keşfini sağlamaktadır (Bath, 2004). Tıbbi
veriler, tipine bağlı olarak heterojenlikleri ile karakterize edilirler. Bu tür veriler gürültü
terimleri içerirler, eksik gözlemler daha yoğunluklu olarak mevcuttur ve hatalar
içerirler. Bu nedenle analiz aşamasında daha titiz davranılması gerekmektedir. Çünkü
doğrudan insan sağlığını ilgilendiren hayati öneme sahip verilerdir. Örneğin, kanser
epidemiyolojisi önemli bir alandır ve görüntüleme sonuçları ve patolojik raporlar ile çok
büyük veri kümeleri oluşmaktadır (Wasan, 2006). Sağlık sektörünün verilerinin bir
handikapı vardır; o da verinin madencilik yapmak için yeterince büyük olmamasıdır.
Yalnızca hastane kayıt sistemleri veya gen bilgileri gibi alanlarda çok sayıda veri
kayıtları bulunmaktadır. Ancak, hastalıklara veya kullanılan tedavi yöntemlerine ait
kayıt bilgileri de gün geçtikçe artmaktadır. Bu nedenle hastaların teşhis ve tedavilerine
ilişkin kayıtlar, veri madenciliği için yeterince büyük kabul edilmektedir. Veri
madenciliği, biyoinformatik veya mekansal analiz yöntemlerinin sağlık alanında
kullanılması için veri elde etmek zor olmaktadır. Bunun bazı sebepleri vardır: maliyet,
etik kurallar, kayıt sistemleri, verinin paylaşılmasında kişi ya da kurumların isteksiz
davranması gibi. Ülkemiz açısından sağlık alanında veri madenciliği yöntemlerinin
kullanılması yakın zamanda başlamıştır. Bu gecikme, kayıt sistemlerinin yeterince
gelişmemesi ve veriye ulaşmada sıkıntının olması nedeniyle gerçekleşmiştir (Ordonez,
2000), (Smith, 2009), (Srinivas, 2012), (Stolba, 2005), (Theodoraki, 2010).
Birliktelik kuralı (ARM), ekonomi ve finans alanında yaygın olarak
kullanılmasının yanı sıra sağlık alanında da yoğun olarak kullanılmaya başlanmıştır.
Hastane sistemlerinde organizasyon ve maliyet azaltma konularından hastalık
teşhislerinin tespit edilmesi ve gen bilgilerinin ortaya çıkarılmasına kadar geniş bir
alanda kullanım alanı bulmuştur. Sağlık uygulamaları ve tedaviler büyük oranda maliyet
gerektirirler. İlaç tüketimi de ayrı bir sağlık ve maliyet konusudur. Bu nedenle hastane
bilgi sistemlerinde verimliliği arttırmak ve maliyeti düşürmek ana hedeflerden birisidir
82
(Bertsimas, 2008). Ancak bu hedefler gerçekleştirilirken hasta konforunun maksimum
oranda düşünülmesi gerekmektedir. Her iki sorunda optimum çözümleri bulmak üzere
veri madenciliği yöntemlerinin kullanılmasına geçilmiştir (Yıldırım ve ark., 2008).
Hasta kayıt sistemlerinde otomasyona geçilmesi ve verilerin klasik istatistik yöntemleri
yerine madencilik yöntemleriyle analiz edilmesi ile enfeksiyon kontrolünde ve hastane
epidemiyolojisinde daha verimli bilgilere ulaşılmıştır (Brossette, 1998), (Obenshain,
2004), (Suner, 2010). Tiroid Bezi verileri kullanılarak k-en yakın komşu yöntemiyle
sınıflamalar yapılmıştır (Albayrak, 2002). Aynı şekilde gırtlak kanseri hastaların
bilgilerine dayanarak K-ortalamalar yöntemi ile hastalığın tekrar nüks etmesi ve
hastaların hayatta kalma oranları ile ilgili bilgiler elde edilmiş ve ameliyat öncesi
evreler incelenerek ameliyat sonrası başarılar tahmin edilmiştir (Dinçer, 2007). Kafa
travması geçiren hastalardan alınan bilgisayarlı tomografi görüntüleri ile birliktelik
kuralına dayanan Boolean Analyzer (BA) yöntemi ile ilginç kurallar oluşturulmaya
çalışılmıştır (Imberman et al, 2002). Günümüzde tıbbi görüntüleme yöntemleri aşırı
oranda kullanılmaktadır. Hizmet sunucuları açısından çok büyük depolama alanları
oluşturan bu görüntülerde çok fazla bilgi mevcuttur. Bu bilgilerin analiz edilmesi
amacıtla görüntülemede birliktelik kullanılacağı düşünülmüş ve bu konuda çalışmalar
yapılmıştır(Antonie, 2001). Gen ifadeleri birer kayıt ve proteinlerin her birinin bir nesne
olarak düşünüldüğü genetik çalışmada birliktelikler bulunarak maya verisi için
proteinler arasındaki ilişkiler ortaya çıkarılmıştır (Creighton, 2003). Genetik verilerdeki
hızlı gelişme nedeniyle araştırmacılar sürekli yeni ve daha hızlı yöntemler arayışlarına
girmişlerdir. Farklı dokulara ait genlerdeki DNA sekansları veya RNA replikasyonları
arasındaki ilişkiler ortaya çıkarılmaya çalışılmıştır (Anandhavalli et al, 2010).
Kwasnicka ve Switalski (2005), yaptıkları çalışmada genetik birliktelik kuralı
geliştirmişler ve gen mutasyonlarındaki ilişkileri incelemişlerdir. Geliştirilen Sınırlı
Birliktelik Kuralı (Constrained Association Rules) yöntemi ile hastalara ait bilgilerden
yola çıkılarak sağlıklı arterlerin tespit edilmesi gerçekleştirilmiştir (Ordonez, 2006). Çek
Cumhuriyeti’nde STULONG adlı bir araştırmada alkol tüketimi, sigara kullanımı,
beden kitle indeksi, tansiyon, kolesterol değerleri gibi değişkenler kullanılarak
birliktelik kuralı yardımıyla ateroskleroz hastaları için risk faktörleri belirlenmeye
çalışılmıştır (Trémeaux, 2006). Negatif kural çıkarma teknikleri yardımıyla kalp
hastaları üzerinde yapılan çalışmada hastalara ait verilerden gereksiz olanları belirlenip
kurallardan çıkarılarak hastalık teşhisi için pozitif olanlar belirlenmiştir (Gupta et al.,
2005). Doğan ve Türkoğlu (2008), karar destek sistemlerini birliktelik kuralı ile
83
birleştirerek lipit parametrelerini (total kolesterol, LDL, HDL, VHDL, trigliserid) analiz
etmişler ve hastalara hiperlipidemi teşhisi konulup konulamayacağını ortaya
koymuşlardır. Agrawal ve Srikant tarafından geliştirilen apriori algoritmasının değişik
veri kümeleri üzerinde uygulanması ve algoritma üzerinde bir takım değişikliklerin
yapılması ile farklı teknikler her geçen gün geliştirilmektedir. Birçok çalışmada ise bu
teknikler arasındaki hız farklılıkları çalışılmış ve hangi veri kümesinde hangi tekniğin
daha verimli ve hızlı olduğu ortaya konulmaya çalışılmıştır. Altı farklı kanser türü verisi
için apriori, predictive apriori ve tertius teknikleri ile çalışma yapılmış ve apriori
temelli algoritmaların tertius algoritmasına göre daha hızlı olduğu görülmüştür. Ayrıca
her bir kanser türü için hastalıktan korunmaya yönelik kurallar geliştirilmiştir (Nahar et
al., 2009). Geliştirilmiş apriori algoritması (improved apriori) ile göğüs kanseri verileri
analiz edilmiş ve tümörün yeniden nüksetmesi durumu için kurallar geliştirilmiştir (Hu,
2010). Genç insanlardaki negatif lenf noduna sahip tümörlere ait 70 farklı gen içeren
van’t Veer veri seti bulanık (fuzzy) yönteminin birliktelik kuralı ile birleştirilerek analiz
edilmesi ile göğüs ve kolon kanserine ilişki genler ile ilgili kurallar çıkarılmıştır
(Mahmoodian et al., 2011). ABD’de yapılan bir çalışmada kanser çeşitlerine ait
mortalitenin sosyo-ekonomik eşitsizliği, birliktelik kuralı ve mekansal analiz
bağlamında beraberce incelenmiş ve ülkedeki kanser mortalitesine ait kuralların
mekansal bilgileri ortaya konulmuştur (Vinnakota, 2006).
4. ARAŞTIRMA SONUÇLARI VE TARTIŞMA
4.1. Kanser ve meme kanseri
Kanser, hücrelerde DNA'nın hasarı sonucu hücrelerin kontrolsüz veya anormal
bir şekilde büyümesi ve çoğalmasıdır. Günde vücudumuzda (DNA'da) yaklaşık
10.000 mutasyon olmasına rağmen immün sistemimiz her milisaniye vücudumuzu tarar
ve kanserli hücreleri yok eder.
Sağlıklı vücut hücreleri bölünebilme yeteneğine sahiptirler. Ölen hücrelerin
yenilenmesi ve yaralanan dokuların onarılması amacıyla bu yeteneklerini kullanırlar.
Fakat bu yetenekleri de sınırlıdır. Sonsuz bölünemezler. Her hücrenin hayatı boyunca
belli bir bölünebilme sayısı vardır. Sağlıklı bir hücre ne zaman ve nerede
bölünebileceğini bilme yeteneğine sahiptir.
Buna karşın kanser hücreleri, bu bilinci kaybeder, kontrolsüz bölünmeye başlar
ve çoğalırlar. Kanser hücreleri toplanarak urları (tümörleri) oluştururlar, tümörler
84
normal dokuları sıkıştırabilirler, içine sızabilirler ya da tahrip edebilirler. Eğer kanser
hücreleri oluştukları tümörden ayrılırsa, kan ya da lenf dolaşımı aracılığı ile vücudun
diğer bölgelerine gidebilirler. Gittikleri yerlerde tümör kolonileri oluşturur ve
büyümeye devam ederler. Kanserin bu şekilde vücudun diğer bölgelerine yayılması
olayına
metastaz
adı
verilir.
Meme
kanseri, meme hücrelerinde
başlayan kanser türüdür. Akciğer kanserinden sonra, dünyada görülme sıklığı en yüksek
olan kanser türüdür. Her 8 kadından birinin hayatının belirli bir zamanında meme
kanserine yakalanacağı bildirilmektedir. Erkeklerde de görülmekle beraber, kadın
vakaları erkek vakalarından 135 kat fazladır. 1970'lerden bu yana meme kanserinin
görülme sıklığında artış yaşanmaktadır ve bu artışa modern, Batılı yaşam tarzı sebep
olarak gösterilmektedir. Kuzey Amerika ve Avrupa gibi endüstrileşmiş ülkelerde
görülme sıklığı, dünyanın diğer bölgelerinde görülme sıklığından daha fazladır.
Meme kanseri, yayılmadan önce, erken tespit edilirse, hasta %96 yaşam şansına
sahiptir. Her yıl 44000'de bir kadın meme kanserinden ölmektedir. Yaş 35’ten 65’e
ilerlerken meme kanserinde 6 kat hızlı artış olmaktadır. Meme kanserine yakalanmış
hastaların yaklaşık %66’sında bilinen herhangi bir risk faktörü bulunmamıştır. Ancak,
yaş, hormonal faktörler, adet düzensizlikleri, çocuk sahibi olamama veya ileri yaşlarda
çocuk sahibi olma, doğum kontrol haplarının kullanımı, aile öyküsünde meme kanseri
vakası olması gibi durumların hastalık riskini belli oranlarda arttırdığı tespit edilmiştir.
Bunların yanı sıra daha bir çok risk faktörü olabilecek nedenler sayılabilir: alkol, sigara,
aşırı vitamin kullanımı, radyasyon alımı, genetik (özellikle BRCA1 ve BRCA2 genleri)
faktörler, geçirilen farklı hastalıklar ve obezite gibi. Tüm bu faktörlere karşın “fullterm” gebelik yaşının küçük olması, 35 yaş öncesi yapay menopoz, laktasyon
(emzirme), fiziksel aktivite, uygun vitamin alımı ve diyet yapmanın riski azaltan
faktörler olduğu belirtilmektedir. Meme kanserine karşı en iyi koruyucu yöntem erken
teşhistir. Meme kanserinin birçok tipi vardır. En sık rastlanan duktal karsinoma,
memenin süt kanallarında başlar. Meme kanseri memenin dışına yayıldığında koltuk
altındaki lenfatik nodüller en sık görülen yayılım yerleridir. Kanser hücreleri memenin
diğer Lenf Nodlarına, Kemiğe, Karaciğer ve Akciğere yayılabilir. Meme kanserli
hastalar öncelikle tümör boyutu olmak üzere bölgesel lenf nodu ve metastaz yerleşimine
göre evreler halinde gruplandırılır. Son yıllarda evreleme tanımları oldukça detaylı hale
getirilmiştir.
Evre 1: Tümör 20 mm. ve daha küçüktür. Bu durumda kanser lenf bezlerine
sıçramamıştır. Tedavide meme koruyucu yöntemle lenf bezlerinin alınmasından sonra
85
radyasyon tedavisi uygulanır. Desteklemek için kemoterapi ve/veya hormonoterapi
eklenir. Bir diğer uygulama da mastektomi yönetmidir. Bu yöntemde kanserli göğüs
alınarak koltuk altı lenf bezleri çıkarılır.
Evre 2-A: Tümörün 20 – 50 mm. arasında olup, lenf bezlerine sıçramamış
halidir.
Evre 2-B: Tümörün 2-A evresindeki gibi bir boyut aralığında olup (50 mm. den
büyük olabilir), koltuk altı lenf bezlerine sıçramamış halidir.
Evre 2: Evre 1 ile aynı tedavi yöntemi uygulanmakla birlikte, eğer tümör aşırı
büyümüş ya da lenf bezlerine sıçramışsa kemoterapi, hormonoterapi ve radyasyon
tedavisi tamamlayıcı olarak önerilir.
Evre 3-A: Tümör koltuk altı lenf bezlerine ve göğüs dışı dokulara sıçramış
durumdadır ve bu halde mastektomi yöntemiyle tedavi yoluna gidilir. Cerrahi
müdahaleden sonra kemoterapi ve hormon tedavisi uygulanır.
Evre 3-B: Bu aşamada tümörün boyutu dikkate alınmaz; tümör göğüs duvarına
bağlıdır ve lenf bezlerine sıçramıştır. "Neoadjuvan" adı verilen tümörün boyunun
küçültülmesi
amaçlı
kemoterapi
uygulanmasının
ardından
tümörün
boyunun
küçülmesinden sonra lampektomi veya mastektomi yapılır.
Evre 4: Bu aşamada kanser göğüs dışındaki vücut bölümlerine yayılmıştır. Bu
evre tedavisinde hastanın yaşam süresini artırmak ve yaşam kalitesini yüksek düzeyde
tutmak hedeflenir. Kemoterapi ve hormonoterapi yapılır. Hasta şikayetlerine bağlı
olarak mastektomi de uygulanabilir (Orlando, 2005).
4.2. Verinin Hazırlanması
4.2.1. Analizler İçin Paket Programlar
Bir önceki bölümde tanımlanan değişkenlerin analizi için SPSS Clementine 12.0
paket programı, SPSS 21.0 paket programı ve Excel Office programları kullanılacaktır.
Apriori, CART, karar ağaçları ve regresyon için Clementine veri madenciliği programı
kullanılacağından yalnızca bu program ile ilgili bilgiler verilecektir.
4.2.2. SPSS Clementine ile Veri Madenciliği
Teknolojinin gelişmesiyle birlikte veri madenciliği uygulamaları için birçok
ürün geliştirilmiştir. 1997 yılından itibaren günümüze kadar Intelligent Miner,
Relational Data Miner, SPSS Clementine, ASIC, DarwinTM, SAS Enterprise Miner,
86
STATISTICA Data Miner gibi birçok veri madenciliği ürünü kullanılmıştır. Bunların
yanı sıra daha birçok programlama tabanlı derleyiciler vardır. Ancak, programlama
yapmak, kod yazmak temel algoritmalar için artık gereksiz zaman kaybı olmaktadır.
Algoritmalar ile ilgili geliştirilen yeni yöntemler kullanılacaksa bu durumda R veya
SQL gibi bazı derleyicileri kullanmak daha yararlı olacaktır. Bu çalışmada tercih edilen
SPSS Clementine programı, özellikle son zamanlarda tercih edilen, programlamaya
gerek olmaksızın tahmine yönelik modelleri hızlı ve kolay birşekilde oluşturabilen bir
veri madenciliği ürünüdür. Ayrıca gelişmiş analitik uygulamalar ile desteklenen bir
görsel arabirim kullanarak verilerdeki kalıpları ve eğilimleri keşfetmeye çalışır.
Bu
bölümde SPSS Clementine ile veri madenciliği bilgi keşfi süreci ele alınacaktır. Bu
süreç;

Verilerin toplanması;

Verilerdeki aykırılıkların ve tutarsızlıkların temizlenmesi;

Birçok veri kaynağındaki verilerin birleştirilmesi;

Analizde kullanılacak olan verilerin seçilmesi;

Verinin, veri madenciliği tekniğinde kullanılabilecek hale getirilmesi;

Veri madenciliği modelleme tekniklerinin uygulanması;

Bazı ölçümlere göre elde edilmiş bilgiyi temsil eden ilginç örüntülerin
tanımlanması;

Bilgilerin kullanıcıya sunumu aşamalarını içermektedir.
Veri Madenciliği projesinde kullanılacak olan veri setinin modellemeye
hazırlanması, modelleme sonrasında yeniden veri üzerinde çeşitli düzenlemelerini içerir
ve veri hazırlama adımı birden fazla tekrarlanabilir. CLEMENTINE programında
verininmodellemeye hazırlanması amacı ile çok sayıda metot kullanılmaktadır. Veriye
erişim aşamasında CLEMENTINE açık bir çözümdür. ODBC uyumlu olan bütün veri
tabanı
verilerine
kolayca
bağlanılabilir
ve
verilerin
formatı
değiştirilmeden
kullanılabilir. SPSS ve SAS verileri ile serbest ve sabit ASCII formatındaki veriler
kolayca alınabilir. CLEMENTINE programına entegre olarak kullanılan Text Mining
çözümü ile yapısal olmayan yazı tipindeki veriler ile web kayıt verileri kolayca
kullanılabilir. Veri üzerinde temizlik yapma, verinin düzenlenmesi amacı ile çok sayıda
işlemci bulunmaktadır. Variable File ve Fixed File işlemcileri ile geçersiz karakterler
temizlenir. Kayıtlar ve alanlar üzerinde yapılan işlemler için çok sayıda işlemci
87
bulunmaktadır. Kayıt seçimi ile ilgili olarak “sample”, “merge”, “sorte", “aggregate",
“derive, vb. işlemciler kullanılabilir.
4.2.2.1. Modelleme
CLEMENTINE zengin bir içerik sunmaktadır. Clementine içerisinde yer alan
modelleme yöntemleri 3 ana grup altında toplanmaktadır:
I. Prediktif Modeller: Neural Networks, iki farklı rule induction tekniği- C5.0
ve C&Rtree, Regresyon, Lojistik Regresyon ve Sequence Detection olmak üzere 6 ayrı
teknik içermektedir. Prediktif modellerde bir dizi input değeri baz alınarak bir “sonuç"
değerinin tahmin edilmesi amaçlı modeller söz konusudur.
II. Clustering Amaçlı Modeller: benzer nitelik gösteren segmentlerin
belirlenmesi amaçlıdır. Kohonen Ağlar K-Means, Two StepCluster; olmak üzere üç ayrı
clustering yöntemi bulunmaktadır.
III. Association Teknikleri: genelleştirilmiş prediktif yöntemler olarak ta
tanımlanmakta olup, belirli bir sonucu bir dizi kural ile ilişkilendirmeye çalışırlar.
Clementine içerisinde Apriori ve GRI olmak üzere iki ayrı ilişkisel kural belirleme
yöntemi vardır. Daha çok prediktif modelleme öncesinde, nadiren de Clustering
uygulamalarında kullanılan bir veri indirgeme yöntemi PCA (Principal Component
Analysis) Factor algoritması mevcuttur. Clementine External Module Interface (CEMI)
ile PMML- genere edilmiş ve Clementine içerisinde olmayan herhangi bir algoritma
Clementine programına entegre olarak kullanılabilir.
Kullanıcının esas çalışma alanı, Stream Canvas (Akım Tuali) olup, bu alan
görsel programlama tekniklerini kullanarak veri madenciliği yapmamıza olanak sağlar.
Aşağıda, Clementine’ın ara yüzü gösterilmiştir:
88
Şekil 4.1. CLEMENTINE programı açılış arayüzü
Nodlar veri üzerinde yapılacak işlemleri niteler. Her palet, kendisiyle ilişkili birkaç nod
içerir. Örneğin “Sources”paleti, verileri modelimize eklememize yarayan nodları içerir.
Nodlar, Stream Canvas’a yerleştirildikten sonra birbirine bağlanarak akımlar (streams)
oluşturulur. Akımlar, nodlardan veri akışını simgeler ve her akım bir çıktı (output) veya
modelle sonlanır.
Clementine penceresinin sağ üst köşesinde üç tip Manager vardır: Streams,
Outputs ve Models. Akımları açmak, saklamak, adlarını değiştirmek ve silmek için
Streams tabı kullanılır. Clementine programının çıktıları (grafik ve tablolar)
“Outputs”tabında saklanır. “Models”tabı, Clementine'da oluşturulan modelleri saklamak
için kullanılır. Modeller direkt olarak “Browse”seçeneğiyle görüntülenebilir ya da
“Stream Canvas” ta bulunan akımlara eklenebilir. Sol alt köşede, veri madenciliği
çalışmalarımızı organize edebileceğimiz Projects penceresi bulunur. “CRISP-DM” tabı,
akımları (streams), çıktıları (outputs) ve dip notları (annotations) CRISP-DM fazlarına
uygun olarak düzenlememizi sağlar. “Classes”tabı, oluşturduğumuz nesnelerin
kategorilerine uygun olarak düzenlenmesini sağlar.
89
Şekil 4.2. Akım tuali üzerinde kaynak veri kümesi ve bağlantı nodları
Şekil 4.3. Veri tipi belirleme
4.2.2.2. Clementine ve Association Rules
Clementine, iki adet birliktelik kuralı algoritması içerir: Apriori ve GRI.
Algoritmalar öncelikle, çok basit kurallar oluştururlar. Sonra, basit kurallar irdelenerek
daha ilginçve karışık kurallar kaydedilir. Bu algoritmalar diğer kurallara bağımlı
olmayan ve herhangi bir çıktı ya da bağımlı alanıyla sınırlı olmayan kurallar üretir. Bu
90
algoritmalar bir süper markete bir müşterinin bir seferde yaptığı alışverişteki ekmek,
şarap ve peynir gibi ürünlerden bir kaçını aynı anda alması kurallarını keşfederek bir ya
da birden fazla alanın değerlerinin beraberce ortaya çıkmasını açıklar. Aynı şekilde
negatif ilişkilerde ortaya çıkarılır.
Şekil 4.4. Birliktelik kuralları oluşturma
4.2.2.3. Apriori Kural Keşfi
Apriori algoritması sadece sembolik verilerle çalışmasına rağmen aynı veri
setinde GRI’a göre daha verimli ve hızlıdır. Kural çıkarımındaki hesap İşlemlerini
hızlandırmak için gelişmiş bir indekslemesi ve bütün verinin içinden geçişi azaltan
özellikleri vardır. Apriori algoritmasının default ayarları 10%, 80% ve %5 olan
minimum rule support, minimum rule confidence, ve maximum rule preconditions
vardır. GRI algoritması Apriori algoritmasına göre daha geniş aralıkta veriler kullanır
ve herhangi bir kuralın ne derece enteresan olduğuna karar verirken farklı bir ölçüt
kullanır. GRI sayısal alanları kural içerisinde input-antecedents- olarak kullanabilirken
sadece sembolik alanları sonuç (Type işlemcisinde Out veya Both) olarak kullanır.
Kanvasa Apriori işlemcisi koy
Apriori işlemcisini edit et
91
Expert tab’ına tıkla
Expert seçeneğini tıkla
Expert Mode seçildiğinde Evaluation Measure listesi aktif hale gelir. Aynı
şekilde Rule Confidence seçildiyse Evaluation measure lower bound spin control
aktif hale gelir. Eğer kurallar sadece güven (confidence) veya doğru tahminlerden
seçilmiş ise algoritma yalnızca doğru kuralları bulacaktır. Bu totoloji gibi anlaşılsa dahi
doğru kuralların her zaman en enteresan ve kullanışlı olan kurallar olduğu doğru
değildir. Boş bir kuralın güven’i basitçe sonuç’ un frekansıdır ve prior confidence
olarak adlandırılır. Bir veya birden çok öncül’ü olan bir kuralın güven’i posterior
confidence olarak adlandırılır ve oranına artırma ölçütü (lift measure) denir
4.3. Teze İlişkin Veriler
Tez çalışmasının bu bölümünde tezin analizinde kullanılacak veriler ile ilgili
bilgiler verilecektir. Çalışmamız retrospektif olup, veriler Meram Tıp Fakültesi Tıbbi
Onkoloji Anabilim Dalı’nda tedavi gören 1371 adet meme kanseri hastasına aittir.
Hastalar, 2000 ile 2012 yılları arasında kanser tanısı ile hastaneye başvurmuş, değerler
dosyalara kaydedilmiş ve daha sonra dijital ortama alınarak tablo haline getirilmiştir.
Hastalara ait toplam 76 değişken vardır. Ancak bu değişkenlerden bazıları analiz
dışında bırakılacaktır. Çünkü hasta adı-soyadı veya dosya numarası gibi değişkenlerin
kural çıkarma işlemlerinde etkisi olmayacaktır. Değişkenlerin tanımları ve eksik
gözlemler ile ilgili bilgiler aşağıda açıklanacaktır.
92
Çizelge 4.1. Veri kümesinde kullanılan değişkenlerin listesi
Sıra No
1
2
3
4
5
6
7
8
9
10
11
12
Değişken
AD-SOYAD
Dosya no
boy
kilo
BKİ
kan Grubu
il
telefon
cinsiyet
doğum tarihi
tanı anında yaşı
menopoz durumu
13
oral kontraseptif
14
HRT
15
komorbit hastalık
16
17
18
19
24
25
26
27
28
DM
HT
tiroid hastalığı
hipertiroidihipotiroidi
Alkol
sigara
Sekonder
Kanser
öyküsü
ailede kanser varsa
tipi
Aile kanser oykusu
İAT
İDT
çocuksayısı
emzirme
29
30
tanı tarİhi
biyopsi tipi
20
21
22
23
31
32
operasyon tarihi
Sağ-Sol
33
multifokal tutulum
Açıklama
Değer
--Sayısal
Sayısal
Eksik Gözlem
Beden kitle indeksi
İkamet il/ilçe
Tedavi öncesi ve
sonrası
menopoz
durumu
Doğum Kontrol Hapı
kullanma
Hormon Replasman
Tedavisi
Birlikte
görülen
hastalık
Şeker hastalığı
Yüksek tansiyon
Guatr hastalığı
İkinci tip kanser
hastalığı durumu
İlk adet görme yaşı
İlk doğum yaşı
Çocuk
durumu
emzirme
Tümör hangi tarafta
Memede çok sayıda
tümör durumu
+/- A, B, AB, 0
--E, K
-Sayısal
PRE, POST, ERKEK
434
424
436
701
7
1
4
27
EVET, HAYIR, ERKEK
1167
EVET, HAYIR, ERKEK
1169
VAR, YOK, KOAH,
KAH, HİPERLİPİDEMİ,
BEYİN
TM,
PULMONER EMBOLİ,
PACEMAKER,…
VAR, YOK
VAR, YOK
VAR, YOK
VAR, YOK
65
VAR, YOK
VAR, YOK
VAR, YOK
125
125
24
ANNE,
BABA,
KARDEŞ, AKRABA
VAR, YOK
Sayısal
Sayısal
Sayısal
VAR, YOK, E
197
-İNSİZYONEL,
EKSİZYONEL,
TRUCUT
-SAĞ,
BİLATERAL
VAR, YOK
23
254
66
67
122
128
203
1123
1150
383
1080
İİAB,
SOL,
597
16
1010
93
Sıra No
34
Değişken
LVI DURUMU
35
36
37
38
grade
ER yüzdesi
PR yüzdesi
cerb2 yüzdesi
39
TRIPLE
40
fish
41
TM çapı evre olarak
42
43
44
45
Tm size
pozitif lenf nodu
negatif lenf nodu
tanı anında MET
DURUMU
Evre
KT-HT
başlama
tarihi
AdjuvantNeoadjuvant
46
47
48
49
herceptin
50
zolodex kullanımı
51
52
53
HT
RT
mikrokalsifikasyon
54
kemik
metastaz
durumu
patolojik
mikrokalsifikasyon
55
Açıklama
Lenf
sistemine
sıçrama
Evre
Östrojen Reseptörü
Progesteron reseptörü
Epidermal büyüme
faktörü reseptörü
ER, PR ve CERB2
reseptörlerinin
her
üçünün de olmaması
Flourescent In Situ
Hibridization: Meme
kanseri teşhisi için
güçlü bir yöntem
Tümör çapı evresi
Değer
VAR, YOK
Eksik Gözlem
626
1, 2, 3
POZİTİF, NEGATİF
POZİTİF, NEGATİF
POZİTİF, NEGATİF
607
153
168
204
POZİTİF, NEGATİF
1172
BAKILMADI,
NEGATİF
582
T1, T2, T3, T4, OPERE
OLMADI
Sayısal
Sayısal
Sayısal
VAR, YOK
--
Metastaz evresi
KemoterapiHormonterapi
Ameliyat
sonrası
veya öncesi adjuvan
tedavisi
Herceptin
ilacı
kullanma durumu
Zolodex
ilacı
kullanma durumu
Hormon tedavi
Radyoterapi
Tümör
çevresi
kireçlenme
Kemikte metastaz
M0, M1
--
47
51
ADJUVAN,
NEOADJUVAN
22
EVET, HAYIR
35
EVET, HAYIR
37
VAR, YOK
VAR, YOK, PALYATİF
VAR, YOK
38
59
833
VAR, YOK
114
Patolojik kireçlenme
bulgusu
VAR, YOK
920
Tümör çapı
253
188
214
61
4.4. Bulgular
Veri seti klasik apriori uygulamaları ile aynı tarzda olmadığından çıkan
sonuçların diğer yöntemler ile karşılaştırılması gerekmektedir. Market sepet analizinde
ssatırlar müşterilere ait kayıtları sütunlar ise alışveriş esnasında aldıkları ürün
sıralamasını göstermektedir. Daha sonra sütunlara ürünleri değişken olarak tanımlayıp
“aldı-almadı” şeklinde ikili veri kümeleri de oluşturulmuştur. Bizim çalışmamızdaki
veri kümesi ikini forma benzemektedir. Çünkü satırlar her bir hastaya ait kayıtlar,
sütunlar ise ölçülen değerler veya alınan bilgilerden oluşan değişkenlerdir. Ancak
94
burada değişkenlere ait kategoriler yalnızca ikili değil iki, üç, dört veya daha fazla
kategoriye sahip olmaktadır. Bu durumda apriori algoritması için kural çıkarmak daha
zorlaşmakta ve işlem uzamaktadır. Sağlık verilerinde küçük olasılıkların da önemli
olması, negatif kuralların da çıkarılmasını gerektirmektedir. Clementine programı
yardımıyla apriori ve GRI algoritma sonuçları karşılaştırılarak verilecektir. Ayrıca, daha
önce önermiş olduğumuz minimum ilginçlik ölçütüne göre çıkarılmış negatif kurallarda
da örnekler verilecek ve negatif birlikteliklerin güçlü kurallar çıkarıp çıkaramayacağı
test edilmiş olacaktır.
Verilerin tanımlayıcı ölçüleri ortaya konuldu. Buna göre, 15 hastanın (%1,1)
erkek olduğu, en yüksek oranda kan grubunun ise (%51,1) 0+ olduğu görüldü. Çok
düşük oranlarda (yaklaşık %3) hormon replasman tedavisi aldıkları ve oral kontraseptif
kullandıkları anlaşıldı. Hastaların yaklaşık yarısının komorbit hastalığı olduğu ve dörtte
bir oarnında ailelerinde kanser öyküsü olduğu görüldü. %10 oranında metastaz ve
bunlarında %20 kadarında kemik metastazı görüldü. Hastaların boy ve kilo değerleri
sırasıyla 158±5,46 cm ve 75±11,9 kg olmuştur. Beden kütle indeksi ise 15,43 ile 52,89
arasında çok geniş bir skala göstermektedir. Bu da hastaların çok zayıftan obeze kadar
her grupta olabildiklerini göstermektedir (Şekil 4.7 ve 4.8). Ortalama çocuk sayıları 2,2
ve lenf nodu sayıları çok değişken olmakla birlikte ortalama 3,52 pozitif; 13,52 ile
negatif lenf nodu sayısı olduğu görülmektedir (Şekil 4.5 ve 4.9). Tümör çapı evreleri
sayısı veri kümemiz için en önemli değişken olarak karşımıza çıkmaktadır. Çünkü
apriori algoritması uygulamasında sonuç değişkeni tümör evresi olacaktır. Evre
frekanslarına ait bilgiler Şekil 4.6’da gösterilmiştir. Hastaların büyük çoğunluğunun T2
evresine ait olduğu görülmektedir.
95
Şekil 4.5. Tümör çaplarna göre pozitif lenf nodu sayıları
Şekil 4.6. Tümör çapı sayıları
96
Şekil 4.7. Tümör evrelerine göre beden kütle indeksi
Şekil 4.8. Boy-kilo saçılım grafiği
97
Şekil 4.9. Pozitif-negatif lenf nodları saçılım grafiği
Yapılan lojistik regresyon uygulamasında metastaz, lenfovasküler invazyon ve
mikrokalsifikasyon değişkenleri tümör çapı evrelerine ait parametre tahmininde anlamlı
sonuçlar çıkarmıştır (p<0,05). Buna karşın, ailede kanser öyküsü ve çeşitli komorbit
hastalıklara ait değişkenler eksik gözlem sayılarının çok olması nedeniyle modele
anlamlı katkı yapamamıştır. Regresyon uygulaması ile veri ve değişken sayısı arttığında
sonuç elde etmesi zor olmakta ve zaman almaktadır. Çünkü çok büyük boyutlarda
matrisler oluşmakta ve terslerinin alınması paket programları çok yormaktadır. WEKA
programı yardımıyla elde edilen regresyon modelleri aşağıdadır.
= 0.0973062 − tiroidhastalığı ∗ 0.116498 + "
∗ 0.0827949 +
" ∗ 0.087399
= 0.606683 − "
" ∗ 0.144963– ∗ 0.063813 +
∗ 0.185193
= 0.451203 − Menapozdurumu ∗ 0.039143 + ailedekanserkimde
∗ 0.0135488 − multifokaltutulum ∗ 0.152805
98
= 0.552971 + "
∗ 0.245458 − "
= 0.000677247 + " ∗ 0.066708– " ∗ 0.0704731
∗ 0.00396467 + ∗ 0.00526586– ∗ 0.00708301
Kurulan modellerde katsayıların anlamlılığı ile ilgili sorunlar ortaya çıkmıştır.
Ayrıca tümör çapı evresi kategorik sıralı bir değişken olduğundan tahmin sonuçları
sayısal bir değer çıkmaktadır. Bu nedenle, birliktelik kurallarının uygulanması hem
daha az zaman almakta hem de programları daha az yormaktadır. Her geçen gün süreyi
kısaltıcı ve programlara daha az yük getirecek algoritmaların sayısı artmaktadır. Ancak
birliktelik kural çıkarımı, herhangi bir varsayım gerektirmediği gibi daha yoğun olarak
ticari işletmelere yönelik ve kar amaçlı olduğundan veri kümesi üzerinde uygulama
yapılırken dikkatli olunması gerekmektedir. Özellikle sağlık verisi gibi müşteri temeline
dayanmayan verilerde karşılaştırmalı ve kontrollü uygulanmalıdır. 42 değişken ve 1371
hastaya ait 1371x42 boyutlarında bir matris için apriori algoritması işletildiğinde
yaklaşık 59 bin pozitif kural çıkmaktadır. Bunun nedeni değişkenlerin kategori sayısının
ikiden fazla olması ve eşik değerlerin düşük tutulmasıdır. Program, min.des değerini
%10 ve min.güv değerini %80 olarak belirlemektedir. Ancak, bu değerler sağlık verileri
için yüksektir. Gözden kaçabilecek kuralların ortaya çıkarılabilmesi için min.des değeri
%10, min.güv değeri %55 olarak belirlenmiştir. Eğer eşik düzeyleri daha küçük
tutulursa kural sayısı daha da artacaktır. Bunun yanı sıra negatif kurallar da
belirlenecektir.
Apriori kullanılarak elde edilen sonuçlar çizelgelerde verilmiştir. Çok sayıda
kural olduğundan yalnızca güven ve lift değerleri büyük olan birkaç kural ile en zayıf
kurallara ait örnekler Çizelge 4.2 - 4.4’de gösterilmiştir. Çizelge 4.2’de öncül olarak
“HT, tiroid hastalığı, LVI, cinsiyet, kan grubu ve DM” seçilmiş, destek değeri %10 ve
güven değeri %55 olarak belirlenmiştir. En güçlü kural:
“HT = VAR ∩ LVI = VAR ∩ cinsiyet = K iken TM çapı evresi:T’” şeklindedir.
Çizelge 4.3’de yine tümör çapı evresi sonucuna karşılık “cocuk sayısı, multifokal
tutulum ve LVI” %10 destek ve %50 güven değeri ile öncül olarak belirlenmiştir.
Çizelge 4.4’de ise “çocuk sayısı, multifokal tutulum ve LVI” öncülleri için
“mikrokalsifikasyon” sonuç olarak belirlenip kurallar elde edilmiştir. Çizelge 4.5‘de ise
GRI ile elde edilen kurallar gösterilmiştir. Görüldüğü gibi her iki çizelgedeki kurallar
99
farklı çıkmıştır. Bunun nedeni, apriori algoritması ile GRI algoritmasında farklı
ölçütlerin kullanılmasıdır. Ölçüt dediğimiz işlemler olasılık hesaplarından oluşmaktadır.
Farklı olasılıkların ölçüte dahil edilmesi farklı kuralların çıkmasına neden olmaktadır.
GRI algoritması sonuçlarında çok farklı destek ve güven değerleri karşımıza
çıkmaktadır. T1 evresi için lift değeri yüksek olmasına ve güven değerinin % 100
olmasına rağmen destek çok küçük çıkmıştır. Aynı şekilde diğer evreler için de benzer
durumlar söz konusudur. Bu şekilde kuralların çıkarılması düşük olasılıklardan
kaynaklanmaktadır.
Çizelge 4.2. apriori sonuçları
Sonuç
TM cap evre
= T2
TM cap evre
= T2
TM cap evre
= T2
TM cap evre
= T2
TM cap evre
= T2
TM cap evre
= T2
……
TM cap evre
= T2
TM cap evre
= T2
TM cap evre
= T2
TM cap evre
= T2
TM cap evre
= T2
Öncüller
HT = VAR ve LVI = VAR ve
cinsiyet = K
HT = VAR ve LVI = VAR
LVI = YOK ve tiroid hastalığı =
YOK ve cinsiyet = K
LVI = YOK ve tiroid hastalığı =
YOK
LVI = VAR ve Kan Grubu = ? ve
tiroid hastalığı = YOK
LVI = VAR ve Kan Grubu = ? ve
tiroid hastalığı = YOK ve cinsiyet
=K
…….
LVI = ? ve Kan Grubu = ? ve HT =
YOK ve tiroid hastalığı = YOK ve
cinsiyet = K
Kan Grubu = A(+)
Kan Grubu = A(+) ve cinsiyet = K
LVI = YOK ve DM = YOK ve
cinsiyet = K
LVI = YOK ve DM = YOK
Destek %
Güven%
Lift
10.714
63.265
1.105
10.787
62.837
1.098
10.714
62.585
1.093
10.932
62.0
1.083
14.723
61.881
1.081
14.723
61.881
1.081
………..
………
…………..
16.909
56.034
0.979
19.096
55.725
0.973
18.877
55.598
0.971
11.443
55.414
0.968
11.661
55.000
0.961
100
Çizelge 4.3. apriori sonuçları
Sonuç
TM cap
evre = T2
TM cap
evre = T2
TM cap
evre = T2
TM cap
evre = T2
TM cap
evre = T2
………
TM cap
evre = T2
TM cap
evre = T2
TM cap
evre = T2
TM cap
evre = T2
TM cap
evre = T2
Öncül
multifokal tutulum = YOK ve LVI
= VAR
LVI = VAR
LVI = VAR ve multifokal tutulum
=?
multifokal tutulum = YOK
cocuk sayisi = ? ve LVI = VAR
…………………
LVI = ? ve multifokal tutulum = ?
LVI = ?
cocuk sayisi = ? ve LVI = ?
cocuk sayisi = ? ve multifokal
tutulum = ?
cocuk sayisi = ? ve LVI = ? ve
multifokal tutulum = ?
Destek %
Güven %
Lift
11.078
63.157
1.103
40.160
61.524
1.075
25.218
61.271
1.070
20.116
61.231
1.070
13.119
61.111
1.068
……………
…………
…………..
40.160
54.083
0.9452
45.626
53.833
0.940
14.941
53.658
0.937
23.906
53.353
0.932
12.973
52.808
0.922
Çizelge 4.4. apriori sonuçları
Sonuç
mikro
kalsifikayon = ?
mikro
kalsifikayon = ?
mikro
kalsifikayon = ?
mikro
kalsifikayon = ?
mikro
kalsifikayon = ?
………..
mikro
kalsifikayon = ?
mikro
kalsifikayon = ?
Öncül
LVI = ?
LVI = ? ve multifokal tutulum
=?
cocuk sayisi = ? ve LVI = ?
cocuk sayisi = ? ve LVI = ?
ve multifokal tutulum = ?
cocuk sayisi = 4
………….
cocuk sayisi = ? ve LVI =
VAR
LVI = YOK
Destek %
Güven %
Lift
45.626
68.210
1.123
40.160
67.332
1.108
14.941
65.853
1.084
12.973
64.044
1.054
11.807
61.728
1.016
…………….
…………..
…………….
13.119
52.222
0.860
14.139
51.030
0.840
101
Çizelge 4.5. GRI sonuçları
Sonuç
Kural
Menopoz = POST ve Oral
Contraceptif = Hayır ve
Multifokalite = Hayır ve
metastaz = Evet ve
mikrokalsifikasyon = Evet
Menopoz = POST ve Komorbit
hastalık = Evet ve
Aile kanser öyküsü = Hayır ve
Multifokalite = Hayır ve LVI =
Positif ve metastaz= Evet ve
mikrokalsifikasyon = Evet
Aile kanser öyküsü = Hayır ve
Multifokalite = Evet ve LVI =
Positif ve
mikrokalsifikasyon = ?Boş
TM size stage = T4
TM size stage = T1
TM size stage = T3
Destek%
Güven%
Lift
2.480
50.000
5.765
0.360
100.000
6.098
0.360
100.000
5.765
Yukarıda verilen tablolardaki ikinci bölümler lift değerinin 1’den küçük olan kurallarını
göstermektedir. Bu tür kurallar negatif kurallar olarak düşünülebilir. Ancak bunların
dışında lift değeri yüksek fakat pozitif olmayan kurallar da olabilir. Bunun için Zhang et
al. tarafından önerilen algoritma kullanılabilir. Ancak bu algoritmanın bizim
önerdiğimiz MINN ölçütü kullanılarak yapılması bulunacak kuralları daha güçlü
yapacaktır. Bu durumu gösteren birkaç örnek vererek MINN ölçütü için sonuçlar
bulacağız.
Pozitif kurallar içerisinde komorbit hastalık varken metastaz durumunun “yok” olması
kuralı
vardı.
O
∗
⟹
halde,
=
:
⟹
:
kuralını
düşünelim.
( ⟹
∗)
=
|0,435 ∙ 0,099 − 0,108| 0,252
=
= 0,497
0,565 ∙ 0,901
0,509
olarak bulunur. İlginçlik ölçütü olarak çok küçük bir değerdir. Bunun nedeni komorbit
hastalık varken metastaz olma durumu olasılığının düşük bir değer (%4) olmasından
kaynaklanmaktadır. Böyle bir kuralın algoritma sonucu çıkma olasılığı çok düşüktür.
Pozitif kural olarak çıkmayan ancak önemli olabileceğini düşündüğümüz başka bir
örnek düşünelim. Burada öncül olarak tek değişken değil de üç değişken alacağız.
⟹
∗
=(
:
∧
∧
∶
Bu kurala göre MINN ölçütünü hesaplamaya çalışalım:
⟹
:
:
)
102
( ⟹
∗)
=
|0,169 ∙ 0,189 ∙ 0,094 − 0,8| 0,797
=
= 1,623
(1 − 0,003) ∙ (1 − 0,507)
0.491
şeklinde hesaplanır. Bulunan değer ilginçlik ölçütü olarak uygundur. Faat 1,623 değeri
tek başına bir anlam ifade etmez. Tüm istenilen kurallar için ölçütler hesaplanır ve
içlerinden büyük olan değerler güçlü olması muhtemel kurallar olarak belirlenir. Bu
kural için destek değeri % 1 ve güven değeri ise %80 olduğundan minimum güven eşik
değerini fazlasıyla sağlamaktadır, ancak destek eşiğini sağlamamıştır. 1,623 değerinin
tüm çıkarılan kurallar içerisinde en büyüğü olduğunu varsayalım. Bu durumda, destek
ve güven değerleri ile birlikte düşünerek oluşan kuralın ilginç (güçlü) olduğu
düşünülebilir. Yani, menopoz durumu “pre” olduğunda kemik metastazının ve
mikrokalsifikasyonun olma durumu yüksek olasılıklı olmaktadır. GRI algoritması ile
aynı tarzda bir kural yapısı oluşturmuştur. Yüksek güven ve lift değeri kuralın ilginç
olabileceğini gösterir. Karar kullanıcıya aittir. Clementine ile yapılan pozitif kural
çıkarma analizinde sonuç olarak T2 evresi çıkmıştı. Bu nedenle, zayıf ta olsalar önemli
olabileceği düşüncesiyle MINN ölçütünü diğer evreler için de uygulayalım.
⟹
∗
=(
:
∧
ℎ
∧
:
ı :
⟹
∧
:
: 1)
Gibi bir kuralı düşünelim. GRI algortiması ile buna benzer bir kuralın ilginçlik ölçütü
yaklaşık 6 bulunmuştu. Ancak destek değeri çok küçüktü. MINN ölçütü hesaplamak için
öncelikle bazı değerleri belirtelim:
630
= 0,45
1371
) = 0,10
(
(
)=
(
(
) = 0,43
) = 0,16
( 1) = 0,16
ü ( ⟹
∗)
= 0,0007
olarak hesaplanırsa
( ⟹
∗)
=
|0,45.0,43.0,10.0,16 − 0,0007| √0,0023
=
(1 − 0,003). (1 − 0,16)
0,837
=
0,048
= 0,057
0,837
değeri bulunur. Oluşturulan kuralın hem güven hem de ilginçlik değerleri çok düşüktür.
Başlangıçta belirlenen min.il eşik değerini büyük bir olasılıkla sağlamayacaktır. Ancak,
kuralda hesaba alınan özelliklerin bulunduğu hastalarda T1 evresi gelişme olasılığınin
103
küçük te olsa (onbinde 7) olabileceğini görmekteyiz. Kuralın gücü binde 57 çıkmıştır.
Bir çok hastalığın prevalansının onbinler veya yüzbinler ile ifade edildiği sağlık
sektöründe binde 57 gücü dikkate değer olabilir. MINN ölçütü dikotom veri
kümelerinde daha kolay hesaplanmasına rağmen çok kategorili değişkenlerin olduğu
veri tabanlarında daha zor hesaplanmaktadır. Çünkü güven değerini hesaplamak daha
zor olmaktadır. Aynı şekilde yüksek oranlı destek ve güven değerlerini bir araya
getirmek zor olmaktadır. Bu nedenle, kategorisi çok olan hatta sıralı kategoriye sahip
olan
değişkenlerin
geliştirilmelidir.
bulunduğu
veri
tabanlarında
daha
verimli
algoritmalar
104
5. SONUÇLAR VE ÖNERİLER
5.1. Sonuçlar
Veri madenciliği günümüz analiz tekniklerinin önemli bir bölümünü
oluşturmaktadır. Disiplinler arası bir branş olması nedeniyle hem bilgisayar bilimleri
hem de istatistik biliminden çok sayıda araştırmacıyı kendine çekmektedir. VM
teknikleri üzerinde yapılan araştırmaların sayısı milyonlara yaklaşmakta; ancak çok
geniş uygulama alanları bulması nedeniyle bu sayı her geçen gün hızla artmaktadır. Veri
madenciliğinin ticari yönü olması nedeniyle işletme ve finans bilimleri ile de yakın ilgili
hale
gelmiştir.
Bu
nedenle
finansal
alanlarda
uygulamaların
geliştirilmesi
yaygınlaşmaktadır. Ayrıca VM’nin kendisi başlı başına bir ticari olgu haline gelmiştir.
İlgili yazılımlar her geçen gün gelişmekte; gerek ticari gerekse açık kaynak kodlu
uygulama yazılımları geliştirilmektedir. VM yöntemlerinin en önemlilerinden birisi
birliktelik kuralıdır. Birliktelik kuralının ortaya çıkış nedeni de ticaridir. Market sepeti
analizi şeklinde ortaya çıkmış ancak daha sonraları birçok alanda uygulama şansı elde
edilmiştir. Birliktelik kuralı ile ilgili çok çeşitli algoritmalar yazılmıştır. Her yani
algoritma bir öncekinden daha hızlı ve daha verimli olmaktadır. Çünkü VM büyük veri
kümeleri ile uğraşmaktadır. Bu nedenle işlemcilerin yükünü azaltacak ve daha kısa
sürede
işlemi
sonlandıracak
algoritmalara
ihtiyaç
duyulmaktadır.
Birliktelik
algoritmaları içerisinde apriori temelli algoritmalar en verimlilerindendir. Veri
kümelerinin yapısı uygulama alanlarına göre değişmekte olduğundan her algoritma her
veri kümesi için uygun olmamaktadır. Pozitif birlikteliklerin yanı sıra negatif
birlikteliklerin de araştırılması gerektiği düşüncesi gelişmiş ve son yıllarda özellikle bu
konuda ilerlemeler olmaktadır. Birliktelik kuralı oluşturma yöntemi diğer VM
yöntemleri içerisinde ayrı bir disiplin haline gelmeye başlamıştır. Pozitif, negatif,
seyrek, işleme dayalı (transactional) ve bulanık (fuzzy) birliktelik kuralları çıkarma
şeklinde çok geniş bir alan olmuştur. Bu nedenle, daha üzerinde çalışılması gereken çok
fazla konu bulunmaktadır. Bu konuda yapılan yayınlardan görüldüğü kadarıyla gelecek
çalışma olarak sunulan yüzlerce konu bulunmaktadır.
Klasik istatistiksel yöntemler az sayıda değişken ile çalışmakta ve çok sayıda
varsayım gerektirmektedir. Ancak VM yöntemleri bu tür varsayımlara gerek
duymamaktadır. Ayrıca çok sayıda değişken ile ve çok büyük sayıda kayıt ile
çalışabilmektedir. Klasik analizlerden bir farkı da VM ile yapılan analizlerde bir
105
hipotezinizin olması gerekmemektedir. Çünkü VM yaparken hipotez kurup veriyi
hipoteze göre analize sokmuyorsunuz. Başlangıçta büyük bir veriniz var ve bundan “ne
çıkarabilirim?” diye soruyorsunuz. Bu nedenle VM daha fazla tercih edilen bir analiz
yöntemi haline gelmiştir. Ancak VM uzun ve zorlu bir süreçtir. Özellikle veri
kümelerinin çok büyük olması verinin hazırlanması aşamasını zorlaştırmakta ve zaman
almaktadır. Ayrıca veri kümesine göre uygun yöntem ve modelleme seçimi de zaman
almaktadır. Eğer yüksek ücretler ödeyip kaliteli bir paket program kullanıyorsanız
analizleri yapmanız vakit almaz. Ancak açık kaynak kodlu programları kullanmak
durumundaysanız ya kod yazıp sonuçları kendiniz elde edersiniz ya da kulanızı dostu
olmayan bir ortamda uzun uğraşlardan sonra sonuçlarınıza ulaşabilirsiniz. VM’nin en
önemli uğraşılarından birisi de sonuçların raporlanmasıdır. Çünkü kullanıcılar için en
önemli şey analizlerden elde edilecek sonuçlardır. Sonuçların görselleştirilmesi için
çeşitli grafik ve tablolama yöntemleri geliştirilmektedir. Kuralların, modellerin ve
sonuçların
görselleştirilmesi
ile
grafikleme
alanında
çok
önemli
gelişmeler
kaydedilmiştir.
VM yöntemleri sağlık alanında yoğun olarak kullanılmaya başlanmıştır. Bunun
en büyük nedeni, hasta ve hastane bilgi sistemlerinin otomasyona geçmesi ve daha fazla
kayıt tutulmasıdır. Bu sayede büyük veri kümeleri oluşmakta ve hastalık tedavileri veya
hastane yönetim sistemlerinde maliyet düşürme gibi önemli ve öncelikli kavramlar ön
plana çıkmaktadır. Buna rağmen birliktelik kuralı uygulamaları henüz başlangıç
aşamasındadır. Özellikle gen dizilimleri ve sekanslama, kanser verileri ve hastane
yönetim sistemlerine ait veriler bu yöntem için uygundur. Zaten son yıllardaki
uygulamalar bu alanlarda yapılmıştır.
Bu tez çalışmasında meme kanseri hastalarına ait 1371 kişinin verilerini apriori
algoritması ile analiz ettik. Veriler 12 yıl boyunca toplanmış olup daha sonra titizlikle
dosyalardan Excel ortamına alınmıştır. Hastaların toplamda 72 değişkene sahip
olmasına karşın bazı sözel bilgileri kümden çıkararak yaklaşık 40 değişken ile veri
kümesi analiz edilerek gizli kalmış birliktelikler ortaya çıkarılmaya çalışıldı. Tümör
çapı evreleri ve metastaz sonuçları ile bunlara etki eden diğer bilgilere ait kurallar
çıkarıldı. Apriori’nin haricinde GRI ile de kurallar çıkarıldı. Ve karşılaştırmalar yapıldı.
Bu çalışma, bugüne kadar kanser verilerinde yapılan birliktelik uygulamaları içerisinde
en büyük hasta sayısına sahip çalışma olmaktadır. Apriori ile bulunan kurallar lojistik
regresyon yöntemi ile de karşılaştırıldı. Birbirleri ile paralel sonuçlar ürettikleri
anlaşıldı. Negatif kurallar henüz ülkemizde yaygın olmadığından bu konuda literatürde
106
bir çalışmaya rastlanmadı. Bu nedenle tezde negatif kuralların çıkarılmasına da yer
verildi. Ayrıca, negatif birliktelik kuralları için bir ilginçlik ölçütü (MINN) önerildi.
Veri kümesinden seçilen örnek değişkenler ile MINN ve lift ölçütlerine ait sonuçlar
karşılaştırıldı. MINN ölçütünün negatif kuralları belirlemede üzerinde çalıştığımız veri
tabanı için lift ölçütünden daha iyi olduğu anlaşıldı. Simüle veri kümesi üzerinde
dedaha iyi sonuçların alındığı görüldü. Ancak yine de veri tabanının özelliğine göre
(değişken tipi, sektör, gözlem sayısı vs.) değişebileceğinden kullanıcıların bu durumu
göz önüne almaları gerekmektedir.
5.2. Öneriler
Çıkarılan kurallardan görüldüğü kadarıyla eksik gözlem analizinin çok önemli
olduğunu söyleyebiliriz. Eksik gözlemlerin fazla olduğu değişkenler için uygun
kuralların çıkarılamadığı görülmüştür. Bu nedenle, büyük veri kümesine sahip olan
araştırmacılara birliktelik kuralı analizini kullanmalarını öneriyoruz. Veriler uygun bir
şekilde hazırlanıp, eksik gözlemler ile ilgili sorunlar giderildiği takdirde veri
madenciliği yöntemleri, özellikle de birliktelik analizi kural çıkarmada en uygun
yöntem olabilmektedir. Özellikle sağlık verileri insan ile direk ilgili olduğundan apriori
kullanılarak analiz edilmesi uygun olacaktır. Apriori ve GRI algoritmaları genellikle
farklı sonuçlar çıkarmaktadır. Bu nedenle GRI algoritması sonuçlarının da dikkate
alınması önemlidir. Birliktelik kuralı analizi çok sayıda kural çıkarmaktadır. Negatif
fakat önemli olabileceği düşünülen kurallar da düşünüldüğünde yöntemin faydalı
olduğunu ifade etmekteyiz. Kuralların değerlendirilmesi konu uzmanları tarafından
yapılacağından küçük kurallar bile önemli sonuçlar doğurabilir. Aynı anda çok sayıda
değişkeni hesaba katması nedeniyle birliktelik analizi sağlık alanındaki veri kümeleri
için uygun bir yöntemdir.
107
KAYNAKLAR
Aggarwal, C., Procopiuc, C. and Yu, P., 2002, “Finding Localized Associations in
Market Basket Data”, IEEE Transactions on Knowledge and Data Engineering, Vol.
14, p. 51-62
Agrawal, R. and Srikant, R., 1994, “Fast Algorithms for Mining Association Rules”,
Proceedings of the 20th VLDB Conference, Chile, p. 1-13
Agrawal, R., Imielinski, T. and Swami, A., 1993, “Mining Association Rules between
Sets of Items in Large Databases”, SIGMOD Report of Association for Computing
Machinery, USA, p. 207-216
Albayrak, S., 2002, “Tiroit Bezi Verilerinin Bayes ve En Yakın K-Komşu gibi Eğiticili
Yöntemlerle Sınıflanması”, İstatistik Araştırma Dergisi, Cilt 1, Sayı 1, s. 131-137
Alpar, C.R., (2011), “Çok Değişkenli İstatistiksel Yöntemler”, Detay Yayıncılık,
Ankara, s.71-92
Alpaydın, E., Bilişim 2000 Veri Madenciliği Eğitim Semineri, “Zeki Veri Madenciliği”
Sunuş konuşması, 2000
Amandhavalli, M., Ghose, M.k. and Gauthman, K., 2010, “Association Rule Mining in
Genomics”, Int’l Journal Of Computer Theory and Engineering, Vol. 2, p. 269-273
Anonim1 http://www.deu.edu.tr/userweb/k.yaralioglu/dosyalar/ver_mad.doc [Ziyaret
Tarihi: 22/04/2013]
Anonim2 http://www.isletme.istanbul.edu.tr/surekli_yayinlar/dergiler/nisan2000/1.htm
[Ziyaret Tarihi: 20/06/2013]
Anonim3 http://www.sertacogut.com/blog/wp-content/uploads/2009/03/sertac_ogut__veri_madenciligi_kavrami_ve_gelisim_sureci.pdf [Ziyaret Tarihi: 20/06/2013]
Anonim4 http://www.tuik.gov.tr/PreHaberBultenleri.do?id=8572
12/02/2013]
[Ziyaret
Tarihi:
Anonim5 https://tr.wikipedia.org/wiki/Kanser [Ziyaret Tarihi: 14/01/2014]
Anonymous1 http://archives.datapages.com [Ziyaret Tarihi: 05/07/2013]
Anonymous10
http://technet.microsoft.com/tr-tr/library/ms175595(SQL.100).aspx,
“Microsoft Data Mining Algorithms” [Ziyaret Tarihi: 12/03/2013]
Anonymous11 http://www.eecs.wsu.edu [Ziyaret Tarihi: 05/07/2013]
Anonymous12 http://www.jiad.org [Ziyaret Tarihi: 05/07/2013]
Anonymous13 http://www.mypivots.com [Ziyaret Tarihi: 05/07/2013]
108
Anonymous14
http://epp.eurostat.ec.europa.eu/cache/
lmhu_m_esms.htm [Ziyaret Tarihi: 05/07/2013]
ITY_SDDS/
EN/
Anonymous2
http://citeseerx.ist.psu.edu/
viewdoc/download?doi=10.1.1.58.5784
&rep=rep1&type=pdf [Ziyaret Tarihi: 18/03/2013]
Anonymous3 http://commons.wikimedia.org [Ziyaret Tarihi: 05/07/2013]
Anonymous4 http://compbio.pbworks.com [Ziyaret Tarihi: 05/07/2013]
Anonymous5 http://dali.feld.cvut.cz [Ziyaret Tarihi: 05/07/2013]
Anonymous6 http://motherboard.vice.com [Ziyaret Tarihi: 05/07/2013]
Anonymous8 http://sailing.cs.cmu.edu [Ziyaret Tarihi: 05/07/2013]
Anonymous9 http://support.sas.com [Ziyaret Tarihi: 05/07/2013]
Antonie, M. L., Zaine, O. and Coman, A., 2001, “Application of data Mining
Techniques for Medical Image Classification”, Proceedings of the 2nd Int’l Workshop
on Multimedia Data Mining, USA, p. 94-101
Atılgan, D., 2009, “Bilgi yönetimi kavramı ve gelişimi” . Türk Kütüphaneciliği. Cilt
23, Sayı 1, s. 201-212
Atılgan, E., 2011, “Karayollarında meydana gelen trafik kazalarının karar ağaçları ve
birliktelik kuralı ile analiz edilmesi”, Yüksek Lisans Tezi (Yayımlanmamış)
Ayad, A. M., 2000, “A New Algorithm for Incremental Mining of Constrained
Association Rules”, MS Thesis, Alexandria University (unpublished)
Babadağ, K. K., 2006, “Veri Madenciliği Yaklaşımı ve Veri Kalitesinin Artması için
Kullanılması”, 15. İstatistik Araştırma Sempozyumu Bildiriler Kitabı, s. 85-87
Bath, A. P., 2004, “Data Mining in Health and Medical Information”, Annual Review of
Information and Technology, Vol. 38, p. 331-369
Bayardo, R. and Agrawal, R., 1999, “Mining the Most Interesting Rules”, Proceedings
of SIGMOD Int’l Conference on Knwledge Discovery and Data Mining, p. 145-154
Benoit, G., 2002, “Data Mining”, Annual Review of Information and Technology, Vol.
36, p. 265-310
Berardi, M., Appice, A., Loglisci, C. and Leo, P., 2006, “Supporting Visual
Exploration of Discovered Association Rules through Multi-Dimensional Scaling”,
Lecture Notes in Computer Sciences, Vol. 4203, p. 369-378
Bertsimas, D. et al, 2008, “Algrithmic Prediction of Health Care Costs”, Operation
Research, Vol. 56, p. 1382-1392
109
Biçen, P. ve Fırat, Ü. O., 2003, “Veri Madenciliği Tekniklerini Kullanarak Banka
Müşterileri Bölümlendirmesi ve Kredi Skorlama Modeli”, İstatistik Araştırma Dergisi,
Cilt 2, sayı 2, s. 135-150
Birant, D. ve ark., 2010, “İş Zekası Çözümleri için Çok Boyutlu Birliktelik Kuralları
Analizi”, http://ab.org.tr/ab10/bildiri/112.pdf [Ziyaret Tarihi: 07/03/2012]
Bramer, M., 2007, “Principles of Data Mining”, Springer-Verlag Publ., London
Brossette, S. et al , 1998, “Association Rules and Data Mining in Hospital Infection
Control and Public Health Surveillance”, Journal of American Medical Informatics
Association, Vol. 5, p. 373-381
Bruzzese, D. and Davino. C., 2008, “Visual Mining of Association Rules”, Visual data
Mining, Vol. 4404, p. 103-122
Cespivova, H., Rauch, J., Svatek. V., Kejkula M. and Tomeckova, M., 2004,
In Knowledge Discovery and Ontologies (KDO) at ECML/PKDD
Chen, M.S., Han. J. and Yu P.S., 1996, “Data Mining: An Overwiev from Database
Perspective”, IEEE Transactions on Knowledge and Data Engineering, Vol. 8, p. 866883
Creighton, C. and Hanash, S., 2002, “Mining Gene Expression Databases for
Association Rules”, Bioinformatics, Vol. 19, p. 79-86
Çınar, H. ve Arslan, G., 2008, “Veri Madenciliği ve CRISP-DM Yaklaşımı”, 17.
İstatistik Araştırma Sempozyumu Bildiriler Kitabı, s. 304-314
Çıngı, H., 2007, “Veri Madenciliğine Giriş”, Ders notları, s. 1-35,
http://yunus.hacettepe.edu.tr/~hcingi/ist376a/6Bolum.doc [Ziyaret tarihi: 08/04/2013]
Dinçer, E. ve Duru, N., 2007, “Gırtlak Kanseri Ameliyat Verilerinin K-means
Yöntemiyle Analizi”, INISTA (International Symposium on Inovations in Intelligent
Systems and Applications) Sempozyumu, Türkiye
Doğan, Ş. ve Türkoğlu, İ., 2008, “Diagnosing Hyperlipidemia using Association Rules”,
Mathematical and Computational Applications, Vol. 13, p. 193-202
Edelstein, H. A., 1999, “Introduction to Data Mining and Knowledge Technology”, Two
Crows Corporation, USA, p. 1-36
Emel, G., Taşkın, Ç., 2002, “Genetik Algoritmalar ve Uygulama Alanları”, Uludağ
Üniversitesi İİBF Dergisi, Cilt XXI, Sayı 1, s. 129-152
Fayyad, U., Piatetsky-Shapiro, G., and Smyth, P., 1996, From Data Mining to
Knowledge Discovery: An Overview. In Advances in Knowledge Discovery and Data
Mining, AI Magazine, Vol. 17, p. 37-54
110
Flank,
A.,
2004,
“Multirelational
Association
Rule
Mining”,
http://pdf.aminer.org/000/303/250/many_sorted_observational_calculi_for_multi_relati
onal_data_mining.pdf [Ziyaret Tarihi: 08/04/2013]
Friedman, J., 2012, “Veri madenciliği ve İstatistik: Aradaki bağlantı nedir?” n’den N’ye
GEZİNTİ İstatistik Dergisi, Kasım-Aralık 2012, Sayı 9, s.24-33
Gupta, A., Kumar, N. and Bhatnagar. V., 2005, “Analysis of Medical Data using Dta
Mining and Formal Concept Analysis”, World Academy of Sciences, Engineering and
Technology, Vol. 11, p. 61-64
Güllüoğlu, S. S., 2011, “Tıp ve Sağlık Hizmetlerinde Veri Madenciliği Çalışmaları:
Kanser Teşhisine Yönelik Bir Ön Çalışma”, Online Academic Journal of Information
Technology, Online Academic Journal of Information Technology, Vol. 2, Num. 5, 1-7
Güvenen, O., 2011, “ İstatistik Bilimi, Etik, Dünya Dinamikleri, Bilgi Tahrifatı ve Karar
Sistemlerine Etkileri”, TÜİK İstatistik Araştırma Dergisi, Sayı 2, s. 1-12
Hahsler, M, Grün, B. and Hornik, K., 2005, “A Computational Environment for Mining
Association Rules and Frequent Item Sets”, Journal of Statistical Software, Vol. 14, p.
1-25
Han, J. and Kamber, M., 2006, “Data Mining: Concepts and Techniques”, Morgan
Kaufmann Publishers, Chapter 5-6
Hashler, M., Hornik, K. and Reutterer, T., 2005, “Implications of Probabilistic Data
Modeling for Mining Associations Rules”, Proceedings of the 29th Annual Conference
of Data Analysis and Knowledge, Germany, Springer-Verlag Pub., p.1-9
Hoaglin, D. C., Mosteller, F. ve Tukey, J. W.,(1983), “Understanding Robust and
Exploratory Data Analysis”, Wiley, New York, USA
Hu, R., 2010, “Medical Data Mining based on Asociation Rules”, Computer and
Information Science, vol. 3, p. 104-108
Huber, P. J., 1981, Robust Statistics. New York: John Wiley and Sons
Imberman S.P., Domanski, B. and Thompson H.W., 2002, “Using
Dependency/Association Rules to Find Indications for Computed Tomographing a Head
Trauma Dataset”, Artificial Intelligence in Medicine, Vol, 26, p. 55-68
Jabbar, M.A., Chandra, P. and Deekshatulu, B.L., 2011, “Cluster Based Association
Rule Mining for Heart Attack Prediction”, Journal of Theoritical and Applied
Information Technology, Vol. 32, p. 196-201
Karaağaoğlu, E., 2012, “Veri Mdenciliği ve Yeni Nesil Yöntemleri”, n’den N’ye
Gezinti İstatistik Dergisi, Sayı 9, s. 34-38
111
Kaya, E., Bulun, M. ve Arslan, A., 2010, “Tıpta Veri Ambarları Oluşturma ve Veri
Madenciliği Uygulamaları”, http://ab.org.tr/ab03/tammetin/96.doc [Ziyaret Tarihi:
12/09/2012]
Kotsiantis, S. and Kanellopoulos, D., 2006, “Association Rules Mining: A Recent
Overwiev”, GESTS Int’l Transactions on Computer Science and Engineering, Vol. 32,
p. 71-82
Küçüksille, E. U., 2010, “Veri Madenciliği ve Uygulama Programları”, Veri Tabanı
Yönetim Sistemleri Ders Notları,
“ab.org.tr/ab06/ozet/61.html” [Ziyaret Tarihi:
08/04/2013]
Kwasnicka, H. and Switalski, K., 2005, “Discovery of Association Rules from Medical
Data- Classical Evolutionary Approaches”, Proceedings of 21st Autumn Meeting of
Polish Information Processing Society, p. 163-177
Larose, D. T., 2005, “Discovering Knowledge in Data- An Introduction to Data
Mining”, John Wiley & Sons Inc., p. 30-36, USA
Mahmoodian, H., Abdulrahim, R., Rosli, R. and Saripan, I., 2011, “Using Fuzzy
Association Rule Mining in Cancer Classification”, Australas Phys. Eng. Science Med.,
Vol. 34, p. 41-54
Mehta, M., Agrawal, R., Rissanen, J., 1996, “SLIQ: A Fast Scalable classifier for data
mining”, Lecture Notes in Computer Science, Vol. 1057, p. 18-32
Michie, D., Spiegelhalter, D. J. and Taylor, C.C., 1994, “Machine Learning, Neural and
Statistical
Classification”,
Ch.
10,
http://www1.maths.leeds.ac.uk/~charles/statlog/whole.pdf [Ziyaret Tarihi: 08/04/2013]
Mitchell, M., 1999, “An Introduction to Genetic Algorithm”, The MIT Press, England,
ISBN 0−262−13316−4 (HB), 0−262−63185−7 (PB)
Nahar, J., Tickle, K., Shawkat, A. and Chen, Y.P., 2009, “Significant cancer Prevention
Factor Extarction: An Association Rule Discovery Approach”, J Med Syst, Vol. 35, p.
353-367
Obenshain, M.K., 2004, “Application of Data Mining techniques to Healthcare Data”,
Infection Control and Hospital Epidemiology, Vol. 25, No. 8, p. 690-695
Olmuş, H. ve Erbaş, S. O., 2003, “Bayes Ağlarda Koşullu Bağımsızlıkların İncelenmesi
üzerine bir Çalışma”, TÜİK İstatistik Araştırma Dergisi, Cilt 2, Sayı 1, s. 89-103
Ordonez , C., Santana, C. and Braal, L., 2000, “Discovering Interesting Association
Rules in Medical Data”, Proceedings ACM SIGMOD Workshop on Research Issues on
Data Mining and Knowledge Discovery, p. 1-8
Ordonez, C., 2006, “Comparing Association Rules and Decision Trees for Disease
Prediction”, Proceedings of Healthcare Information and Knowledge Management,
USA, p. 17-24
112
Orlando, E.S., Zurrida, S. (2005), “Breast Cancer: A Practical Guide”, Elsevier Limited
Publications, Oxford, United Kingdom, p. 13-95
Örs, E. T., Bozer, R. ve Koçak, B., 2010, “Paralel Veri Madenciliği”,
http://byildiz.etu.edu.tr/bil533/sunumlar/pvmaden_1.ppt [Ziyaret Tarihi: 12/09/2012]
Özçakır, F. C. ve Çamurcu, A. Y., 2007, “Birliktelik Kuralı Yöntemi için bir Veri
Madenciliği Yazılımı Tasarımı ve Uygulaması”, İstanbul Ticaret Üniversitesi Fen
Bilimleri Dergisi, Sayı 12, s. 21-37
Özekes, S., 2003, “Veri Madenciliği Modelleri ve Uygulama Alanları”, İstanbul Ticaret
Üniversitesi Dergisi, Cilt 2, sayı 3, s. 65-82
Rahman, R. and Hasan, F.R., 2011, “Using and Comparing Different Decision Tree
Classification Techniques for Mining, Hospital Surveillance Data”, Expert Systems with
Applications, Vol. 38, p. 11421-11436
Ramaswamy, S., Mahajan, S. and Silberschatz, A., 1998, “On the Discovery of
Interesting Patterns in Association Rules”, Proceedings of the 24th Very Large Data
Bases Conference, USA, Morgan Kaufmann Publishers Inc., p. 368-379
Rosset, S., Perlich, C., Swirszcz, G., Melville, P. and Liu, Y., 2010, “Medical Data
Mining: Insights from Winning Two Competitions”, Data Mining & Knowledge
Discovery, Vol. 20, p. 439-468
Sarawagi, S., Thomas, S., and Agrawal, R., 2000, “Integrating Association Rule Mining
with relational Database Systems: Alternatives and Implications”, Data Mining and
Knowledge Discovery, Vol. 4, p. 89-125
Sever, H. ve Oğuz, B., 2003, “Veri Tabanlarında Bilgi Keşfine Formel Bir Yaklaşım:
Kısım II-Eşleştirme sorgularının Biçimsel Kavram Analizi ile Modellenmesi”, Bilgi
Dünyası, Sayı 4, s. 15-44
Silahtaroğlu, G., 2008, “Kavram ve Algoritmalarıyla Temel Veri Madenciliği”, Papatya
Yayıncılık, İstanbul, s. 83-98
Simovici, D.A., 2004, “Data Mining of Medical data: Opportunities and Challenges in
Mining Association Rules”, http://www.cs.umb.edu/~dsim/papersps/dmmd.pdf [Ziyaret
Tarihi: 23/10/2012]
Smith, M.R., Wang, X. and Rangayyan, R.M., 2009, “Evaluation of the Sensitivity of a
Medical Data-mining Application to the Number of Elements in small Databases”,
Biomedical Signal Processing and Control, Vol. 4, p. 262-268
Smyth, P., Goodman, R., 1992, “An information theoretic approach to rule induction
from databases”, IEEE Trans. On Knowledge and Data Engg., Vol. 4(4), p.652-669
Srikant, R. and Agrawal, R., 1995,”Mining Generalized Association Rules”,
Proceedings of the 21st VLDB Conference, Switzerland
113
Srikant, R. and Agrawal, R., 1996, “Mining Quantiative Association Rules in Large
Relational Tables”, SIGMOD Report on Management of Data, Vol. 25, p. 1-12
Srinivas, K., Rao, G.R. and Govardhan, A., 2012, “Mining Association Rules from
Large Datasets towards Disease Prediction”, Proceedings of Int’l Conf. On Information
and Computer Networks, Vol. 27, p. 22-26
Stolba, N. and Tjoa, M., 2005, “The relevance of Data Warehousing and Data Mining in
the Field of Evidence-based Medicine to Support Healthcare Decision Making”, World
Academiy of Science, Engineering and Technology, Vol. 11, p. 192-197
Suner, A. ve Çelikoğlu, C. C., 2010, “Toplum Tabanlı Bir Çalışmada Çoklu Uygunluk
Analizi ve Kümeleme Analizi ile Sağlık Kurumu Seçimi”, Dokuz Eylül Üniversitesi
İİBF Dergisi, Cilt 25, Sayı 2, s. 43-55
Tekerek , A., 2011, “Veri Madenciliği Süreçleri ve Açık Kaynak Kodlu Veri
Madenciliği Araçları”, XIII. Akademik Bilişim Konferansı Bildirileri, Malatya, s. 161169
Thakur, M., Olafsson, S., Lee, J.S. and Hurburgh, C., 2010, “Data Mining for
Recognizing Patterns in Foodborne Disease Outbreaks”, Vol. 97, p. 213-227
Theodoraki, E.M., Katsarakagis, S., Koukouvinos, C. and Parpoula, C., 2010,
“Innovative Data Mining Approaches for Outcome Prediction of Trauma Patients”,
Journal of Biomedical Science and Engineering, Vol. 3, p. 791-798
Trémeaux., J. and Liu. Y., 2006, http://naku.dochrew.com/dea-ecd/Tremeaux-Liu2006.pdf [Ziyaret Tarihi: 15/08/2012]
Tseng. F.S., Kuo, Y.H. and Huang, Y.M., 2010, “Toward Boosting Distributed
Association Rule Mining by Data De-Clustering”, Informations Sciences, Vol. 180, p.
4263-4289
Tukey, J. W. (1977), Exploratory Data Analysis, Addison-Wesley, Reading, USA.
Usgurlu, B., Özcan, Ö. ve Demirörs, O., 2010, “A Clustering Based Functional
Similarity Measurement Approach”, IEEE, Conference Proceedings of 36th
EUROMICRO Conference on Software Engineering and Advanced Applications,
p.371-375
Vinnakota, S. and Lam, N.S., 2006, “Socioeconomic Inequality of Cancer Mortality in
the United States: a Spatial Data Mining Approach”, Int’l J Health Geography, Vol. 5,
No. 9, [PMC 1397822 Free Article]
Wasan, S.K., Bhatnagar, V. and Kaur, H., 2006, “The Impact of Data Mining
Techniques on Medical Diagnostics”, Data Science Journal, Vol. 5, p. 119
Yıldırım, P., Uludağ, M. ve Görür, A., 2008, “Hastane Bilgi Sistemlerinde Veri
Madenciliği”, Akademik Bilişim- Onsekiz Mart Üniversitesi Çanakkale, s. 429-434
114
Zhang, C., Zhang, S., 2002, “Association Rule Mining: Models and Algorithms”,
Springer-Verlag Publ., Ch. 3, p. 41-82, Berlin
115
EKLER
EK-1 Uygun bir başlık buraya yazılmalıdır.
EK-2 Uygun bir başlık buraya yazılmalıdır.
116
6. ÖZGEÇMİŞ
KİŞİSEL BİLGİLER
Adı Soyadı
Uyruğu
Doğum Yeri ve Tarihi
Telefon
Faks
e-mail
:
:
:
:
:
:
Adnan KARAİBRAHİMOĞLU
TC
Adana, 30.08.1970
+90 535 394 39 80
[email protected]
EĞİTİM
Derece
Lise
:
Üniversite
:
Yüksek Lisans :
Doktora
:
Adı, İlçe, İl
Adana Erkek Lisesi, Seyhan, Adana
ODTÜ, Çankaya, Ankara
Çukurova Üniversitesi, Sarıçam, Adana
Selçuk Üniversitesi, Selçuklu, Konya
Bitirme Yılı
1987
1992
2007
2014
İŞ DENEYİMLERİ
Yıl
1996-2004
2004-2013
2013- --
Kurum
MEB
TÜİK
Necmettin Erbakan Üniversitesi
Görevi
Öğretmen
Takım Sorumlusu
Uzman
UZMANLIK ALANI
Matematik, İstatistik, Biyoistatistik
YABANCI DİLLER
İngilizce, Almanca, Arapça, Farsça
BELİRTMEK İSTEĞİNİZ DİĞER ÖZELLİKLER
SPSS, Modeller, MS Office
YAYINLAR
1. Karaibrahimoğlu A. ve Erol H., Türkiye ve Adana Enflasyon Değerlerinin
Karşılaştırılması (2008), Ç.Ü. Fen Bilimleri Dergisi, 17(5), 1-6 (Yüksek Lisans
Tezinden yapılmıştır)
2. Talaş, E., Çelik, A.K., Çakmak, F., Kocacan, A, Karaibrahimoğlu, A.,
“Relative Efficiency Measurement of Enterprises Operating in the Oltu Stone
Industry Using Data Envelopment Analysis”, International Journal of Business
and Management; 2013, 8-6
117
3. Karaibrahimoğlu, A., Genç, A, “APRIORI Algoritması ile Meme Kanseri
Verisinde Kural Çıkarma”, Selçuk Tıp Dergisi, 2014, 30-2 (Doktora Tezinden
yapılmıştır)
4. Oltulu R, Karaibrahimoğlu A, “Intraoperative Corneal Thickness Monitoring
During Corneal Collagen Cross-Linking With Isotonic Riboflavin”, 2014, The
Journal of Cornea and external Diseases (In press)
5. Y. Asar, A. Karaibrahimoğlu and A. Genç, Modified Ridge Regression
Parameters: A Comparative Monte Carlo Study, Hacettepe Journal of
Mathematics and Statistics, Vol. 43, 2014 (In Press)
6. İnan İ, Gündeslioğlu Ö, Karaibrahimoğlu A, “CLEFT LIP NOSE
CORRECTION COMBINING OPEN RHINOPLASTY WITH THE DIBBEL
TECHNIQUE”, Journal Of Cranofacial Surgery, 2014 (In Press)
Download