Bu madde, uygun değildir.Şubat 2013) ( |
Büyük Veri
Günümüzde bilgi toplumunun unsurlarını hayatın her alanında görmek mümkündür. Artık çoğu insanın cebinde bir akıllı telefon, çoğu insanın da, evinde bir bilgisayar ve tüm şirketlerin arka ofislerinde bilgi teknolojileri yönetimini yapan birimler bulunmaktadır. Ancak bilginin kendisi o kadar görünür değildir. Bununla birlikte bilgisayarların insan hayatına girmesinden ancak yarım asır sonra bilgi miktarı anlamlı ve özel bir nitelik kazanacak şekilde toplanmaya başlamıştır. Günümüzde sadece bilgi miktarı artmamış aynı zamanda bilgiye erişim hızı da artmıştır. Niceliksel değişiklik beraberinde niteliksel değişikliği de getirmiştir. Verinin manalı bir bütün oluşturacak şekilde toplanması ilk önce astronomi ve genetik alanında gerçekleşmiştir. Büyük veri kavramı da ilk olarak bu alanlarda kullanılmış daha sonra bu kavram her alan için kullanılmaya başlanmıştır. Büyük veri artık hayatımızın her alanında kendini göstermeye başlanmıştır. Örneğin; Ínternet arama motoru Google'dan hastalıkların teşhis ve tedavisi, İnternet üzerinden alışverişlere kadar her alanda büyük veri karşımıza çıkmaktadır.
Büyük veri; toplumsal medya paylaşımları, ağ günlükleri, bloglar, fotoğraf, video, log dosyaları gibi değişik kaynaklardan toparlanan tüm verinin, anlamlı ve işlenebilir biçime dönüştürülmüş biçimine denir. Olageldiği gibi, ilişkisel veri tabanlarında tutulan yapısal verinin dışında kalan, son dönemlere dek çok da kullanılmayan, yapısal olmayan veri yığınıdır. Artık yıkılmış olan yaygın bilişimci inanışına göre, yapısal olmayan veri, değersizdi, ama büyük veri bize bir şey gösterdi o da günümüzdeki bilgi çöplüğü diye adlandırılan olgudan muazzam derecede önemli, kullanılabilir, yararlı yani çöplükten hazine çıkmasına neden olan yegane sistemdir. Büyük veri; web sunucularının logları, İnternet istatistikleri, sosyal medya yayınları, bloglar, mikrobloglar, iklim algılayıcıları ve benzer sensörlerden gelen bilgiler, GSM operatörlerinden elde edilen arama kayıtları gibi büyük sayıda bilgiden oluşuyor.
Büyük veri, doğru analiz metotları ile yorumlandığında şirketlerin stratejik kararlarını doğru bir biçimde almalarına, risklerini daha iyi yönetmelerine ve inovasyon yapmalarına imkân sağlayabiliyor.
Şirketlerin çoğu, halen konvansiyonel veri ambarı ve veri madenciliği yöntemleriyle elde ettikleri datalardan yola çıkarak, karar almaya devam ediyorlar. Ancak, tüketici eğilimlerini dinamik şekilde öngörebilmek, büyük veriyi analiz edebilmekten ve bu analizlere göre hareket edebilmekten geçiyor. Büyük veri, geleneksel veritabanı araçları ve algoritmaları ile işlemesi zor olan bu büyük verinin oluşturulması, saklanması, akışı, analiz edilmesi gibi birçok konuyu içeren bir terim olarak karşımıza çıkmaktadır. Veriler klasik veri tabanlarının kaldıramayacağı büyüklükte olduğu gibi verinin büyüme hızı da bir bilgisayar veya bir veri depolama ünitesini aşmaktadır. 2012 rakamları ile dünyada günlük 2.5 Kentirilyon byte veri üretilmektedir. Bu çapta büyük veriyi işleme, transfer etme gibi işlerin tümüne Büyük veri (Big Data) adı verilmektedir.
Günümüz veritabanları bu çapta büyüyen verileri tutmakta yeterli değildir. İlişkisel veritabanları gigabyte seviyesinde veri tutabilirken, büyük data ile petabyte seviyelerinde veriler saklayabiliriz. Ancak büyük data sadece yığın işleme(Batch) işlemleri için uygundur. Transactions gibi gelişmiş veritabanlarında kritik öneme sahip özellikler yoktur. Veritabanları okuma, yazma güncelleme gibi işlemleri transactionlar aracılığı ile yapabildiği için bu işlemler atomik olarak kabul edilir ve çeşitli kilitleme mekanizmaları ile verinin birden fazla işlem tarafından değiştirilerek tutarsızlaşması engellenir. Büyük veri bir kere yazılıp defalarca okuma işlemi yapıldığı durumlarda kullanılması gerekir. Çünkü veriler birden fazla yerde paralel olarak işlenir. Bu büyüklükte veri RFID sensörlerinden, sosyal medyaya, hastanelere kadar birçok alanda üretilmektedir. DNA dizilişlerinin analizi, hava durumu sensörlerinden gelen veriler başta olmak üzere verileme işlemlerinin yapıldığı birçok alanda büyük veri bir ihtiyaç olarak karşımıza çıkmaktadır.
Büyük Veri Devrimi
2009 yılında domuz gribi olarak adlandırılan salgının (H1N1 virüsü) 1918 yılındaki İspanyol gribi salgınının korkunç hatıralarından dolayı dünya kamuoyunda ciddi bir endişe yarattığı dönemlerde Google bilimsel dergi Nature’da önemli bir araştırma yayımladı. Araştırmanın temeli insanların İnternet üzerinde yaptıkları aramalara dayanan matematiksel modeller ile gribin ABD’de hangi bölgelere ve hangi yoğunlukta yayıldığını tespit etmekti. İnsanların grip belirtileri başladıktan birkaç gün sonra doktora gitmeleri konuyla ilgilenen sağlık kurumlarının ellerindeki verilerin sağlıklı olmaması gibi bir sonuç doğurmaktaydı. Google elindeki muazzam veri tabanı ve veri işleme kapasitesiyle Amerikan sağlık otoritelerinden daha etkili bir şekilde hastalığın yayılmasıyla ilgili bilgilere ulaşabilmekte idi. Bunun için 450 milyon farklı matematiksel model kullanıldı ve arama terimleri CDC 2007 ve 2008 yılındaki gerçek grip vakaları ile karşılaştırıldı. Sonuç olarak 45 arama terimi ile resmi yayılma oranları arasında çok güçlü bir korelasyon olduğu tespit edildi. Büyük veri iş dünyasında önemli yeniliklerin ortaya çıkmasına neden olmuştu. Uçak biletlerini alınması büyük veri kullanımına güzel bir örnek olmaktadır. Google tarafından ortaya konulan araştırma İnternetin bu zamana kadar kamu sağlığı kapsamda kullanılmayan önemli bir yönünü ortaya koymaktaydı. İnternet arama motoru devinin elindeki veri insanlık için çok kıymetli yenilikçi mal ve hizmetlerin ortaya çıkmasına sebep olmaktaydı.
İşleme gücü ve veri depolamanın birkaç yıl öncesine kadar çok pahalı olması bu tür yeniliklerin ortaya çıkmasını zorlaştırmaktaydı. Ancak gerek teknolojinin gelişmesi gerekse zihniyet değişikliği veriyi önemli bir ekonomik değeri olan önemli bir iş girdisi şekline dönüştürmüştür. Bilgisayarlar bundan 50 yıl öncesinde insan hayatına girmiş olmasına rağmen toplanan veri miktarı ancak bu minvaldeki büyük değişikliklere sebep olacak seviyeye son birkaç yıl içinde ulaşmıştır. Genom olarak adlandırılan genetik haritamız 2003 yılında çizilmiş ancak 3 milyar çiftten oluşan halkaların sıralanabilmesi 10 yıl kadar sürmüştür. Bugün bu sayıdaki DNA’lar sadece bir günde sıralanabilmektedir. ABD’de her gün yaklaşık 7 milyar hisse senedi el değiştirmekte ve bu işlemlerin üçte ikisi devasa verileri analiz matematiksel modellere dayanan algoritmalar tarafından yapılmaktadır.
İnsanlık tarihinde bilgi üretiminin üssel olarak arttığı bazı dönemler bulunmaktadır. Matbaanın Avrupa’da kullanılmaya başlamasından itibaren birkaç on yıl içinde basılan kitap sayısı o zamana kadar tüm Avrupa da basılan kitap sayısından daha fazla bir sayıya ulaştı. Veri işleme ve depolama teknolojilerindeki gelişmelerle birlikte sadece birkaç yıl içinde üretilen veri bu zamana kadar üretilen tüm analog ve sayısal verinin birkaç katına ulaşmaktadır. Daha önceleri veriye ulaşma ve ulaşılsa bile veri işleme vasıtalarındaki kısıtlardan dolayı tercih edilen “örnekleme” modeli artık yerini tüm verinin analiz edildiği ve böylece çok daha doğru ve detaylı analizlere ulaşılabilen yeni bir döneme yerini bırakmaya başlamıştır.
Özellikle sosyal bilimler alanında insanlar arama yaptıkları terimler ya da Facebook gibi sosyal paylaşım sitelerindeki “beğen” tıklamaları insanların tercihleriyle ilgili önemli ipuçlarını ortaya koymaktadır. Bu veri özellikle şirketlerin pazarlama stratejilerinde çok önemli bir girdi olarak yerini almaya başlamıştır. Devasa verilerin artık çok aha etkin bir şekilde işlenebilmesi ticari hayatın pek çok alanını derinden etkilemiştir. Verilerden elde edilen korelasyonlar Walmart ve Amazon.com gibi pek çok ülkenin milli hasılasından daha fazla satış yapan şirketlerin ortaya çıkmasına neden olmuştur. Artık elde edilen ve işlenen veriler ile korelasyon temelli bir dünyaya gidildiği yönünde değerlendirmeler yaygınlık kazanmaktadır. Bu değerlendirmelere göre verilerin kısıtlı olduğu eski zamanlarda bilim adamları teorilere ihtiyaç duymaktaydı ama günümüzde artık veriler konuşmakta ve teorilere ihtiyaç bulunmamaktadır. Bu yüzden bilimsel metodolojinin de İnternet vasıtasıyla elde edilen veriyi işleme kapasitesine sahip bilgisayarlar sayesinde değişeceği iddia edilmektedir. Artık korelasyonun nedenselliğin yerini alacağı ve niçin sorusundan ziyade “ne” sorusunun önem kazanacağı ifade edilmektedir.
İnternet'in şüphesiz en önemli katkılarından birisi bilgiye erişim noktasındadır. Bilgi çeşitli formlarda sunuluyor olmasına rağmen klasik yöntem olan kitaplar vasıtasıyla bilgiye erişim konusunda da İnternet çok önemli gelişmelere vesile olmuştur. Kitapların İnternet üzerinden araştırılması ve adrese teslim edilmesi İnternet öncesine göre çok önemli bir katkı olarak karşımıza çıkmaktadır. Ayrıca kitapların google gibi şirketler tarafından dijital ortama aktarılması kitaplara erişim konusundaki sınırları ortadan kaldırmaktadır. Bu zamana kadar 130 milyon başlıkta farklı kitabın yayımlandığı ve bu kitapların yaklaşık 20 milyonunun (yaklaşık %15) Google tarafından dijital ortama aktarıldığı görülmektedir. İnternet vasıtasıyla bilgi toplama sadece pasif bir toplayıcı olmaktan öteye gitmektedir. Örneğin ReCaptcha denilen bir uygulamada kullanıcıların gerçek insanlar olduğunu doğrulamak için daha önce rastgele harflerin yazılmasıyla yapılan doğrulamaların hem bu amacın gerçekleştirildiği hem de bilgisayarlar tarafından okunamayan kelimelerin ücretsiz olarak kullanıcılar tarafından okunduğu görülmektedir. Böylece güvenlikle ilgili bir yeniliğin katma değeri olan başka bir uygulamaya evrildiği görülmektedir. Bu örnek veri toplama ve kullanımıyla ilgili tüm alanlarda görülmektedir. Veri bir defa kullanılıp atılan ya da zamanla değeri kaybolan bir ticari emtiadan ziyade gelişen teknoloji ile her zaman yeni kullanım alanları bulan bir varlık konumundadır. Google’nin sokak görüntüleri için topladığı devasa bilgi sadece Google Earth uygulaması için değil aynı zamanda GPS hizmetleri için kullanılmaya başlanmıştır. Şirket ayrıca sokaklardaki Wi-Fi bağlantılarının envanterine de sahip olmuştur. Arama motorlarında yapılan aramalar buna güzel bir örnek teşkil etmektedir. Arama motorlarındaki istatistikleri kullanarak yeni yıldaki moda eğilimlerinden ev fiyatlarındaki dalgalanmalara kadar pek çok hususta tahminler yürüten çok sayıda şirket ortaya çıkmaktadır.
İnternetin olumsuz etkilerinden bahsedilirken sıkça tekrarlanan husus özel hayatın gizliliğinin sıkça ihlal edildiğidir. Soğuk Savaş dönemindeki komünist blokta yer alan ülkelerin kendi vatandaşlarını izlemek için devasa büyüklükte casusluk şebekeleri kurduğu bilinmektedir. Doğu Almanya’da faaliyet gösteren Stasi (Staatssicherheit, State Security) kurduğu ve yüzbinlerle ifade edilen çalışanı ile neredeyse tüm Doğu Alman vatandaşlarını izlemiştir. İnternetin ortaya çıkmasıyla birlikte artık bu tür izleme faaliyetleri hem kolaylaşmış hem de son derece kapsamlı hala gelmiştir.. Ayrıca önceden sadece istihbarat örgütleri tarafından gerçekleştirilen bu tür faaliyetler hayatımızın vazgeçilmez bir parçası haline gelen İnternet siteleri tarafından kullanıcının kendi isteğiyle verdiği bilgiler vasıtasıyla çok daha kapsamlı olarak uygulanmaktadır. Facebook bizim sosyal ilişkilerimiz dâhil nelerden hoşlandığımızı, Google arama alışkanlıklarımızı, Twitter aklımızdan geçirdiklerimizi, e-ticaret siteleri de alışveriş alışkanlıklarımızı bilmektedir. Mobil işletmeciler kiminle ne konuştuğumuzu ve hatta tatillerimiz ve boş vakitlerimizi kiminle geçirdiğimizi ve hangi arkadaşımıza ne kadar yakın olduğumuzu bilmektedir. Yalnızca şirketler değil devletlerinde vatandaşlarının İnternet üzerinden gerçekleştirdikleri işlemleri izleme kapasitesi önemli oranda artmıştır. Amerikan Güvenlik Ajansı (NSA, National Security Agency) tarafından yapılan bu izlemelerle ilgili pek çok skandal ortaya çıkmıştır.
Büyük Veri İçerisindeki Veri Bileşenleri
Büyük veri platformunun oluşumunda beş ana bileşen vardır. Bunlar; variety, velocity, volume, verification ve value 'dir. Genel olarak 5v diye açıklandığı için İngilizce karşılıklarına yer verilebilinir.
- Variety (Çeşitlilik): Üretilen verinin yüzde 80’i yapısal değil ve her yeni üretilen teknoloji, farklı formatlarda veri üretebiliyor. Telefonlardan, tabletlerden, bütünleşik devrelerden gelen türlü çeşitlilikte “Veri Tipi” ile uğraşılması gerekiyor. Bir de bu verilerin farklı dillerde, Non-Unicode olabileceğini düşünürseniz, bütünleşik olmaları, birbirlerine dönüşmeleri de gerekli.
- Velocity (Hız): Büyük Veri’nin üretilme hızı çok yüksek ve gittikçe artıyor. Daha hızlı üreyen veri, o veriye muhtaç olan işlem sayısının ve çeşitliliğinin de aynı hızda artması sonucunu doğuruyor.
- Volume (Veri Büyüklüğü): IDC istatistiklerine göre 2020’de ulaşılacak veri miktarı, 2009’un 44 katı olacak. Şu anda kullanılan, “büyük” diye adlandırdığımız kapasiteleri ve “büyük sistemleri” düşünüp, bunların 44 kat büyüklükte verilerle nasıl başa çıkacaklarını hayal etmek gerekiyor! Kurumun veri arşivleme, işleme, bütünleştirme, saklama vb teknolojilerinin bu büyüklükte veri hacmi ile nasıl başa çıkacağının kurgulanması gerekiyor. 2010'lu yıllarda dünyadaki toplam bilişim harcamaları yılda %5 artmakta, ancak üretine veri miktarı %40 artmaktadır.
- Verification (Doğrulama): Bu bilgi yoğunluğu içinde verinin akışı sırasında “güvenli” olması da bir diğer bileşen. Akış sırasında, doğru katmadan, olması gerektiği güvenlik seviyesinde izlenmesi, doğru kişiler tarafından görünebilir veya gizli kalması gerekiyor.
- Value (Değer): En önemli bileşen ise değer yaratması. Bütün yukarıdaki eforlarla tariflenen Büyük Veri’nin veri üretim ve işleme katmanlarınızdan sonra kurum için bir artı değer yaratıyor olması lazım. Karar veriş süreçlerinize anlık olarak etki etmesi, doğru kararı vermenizde hemen elinizin altında olması gerekiyor. Örneğin sağlık konusunda stratejik kararlar alan bir devlet kurumu anlık olarak bölge, il, ilçe vb detaylarda hastalık, ilaç, doktor dağılımlarını görebilmeli. Hava Kuvvetleri, bütün uçucu envanterindeki taşıtlarının anlık yerlerini ve durumlarını görebilmeli, geriye dönük bakım tarihçelerini izleyebilmeli. Bir banka, kredi vereceği kişinin, sadece demografik bilgilerini değil, yemek yeme, tatil yapma alışkanlıklarını dahi izleyebilmeli, gerekirse sosyal ağlarda ne yaptığını görebilmeli.
Büyük Verinin Uygulandığı Örnekler
İnternetin çok defa fazla kişi tarafından kullanılır olması, günlük yaşamda aldığımız hizmetlerin, İnternet üzerine taşınan uygulama yazılımları yoluyla kolayca erişilebilir olması nedeniyle oluşan yaygın kullanım, özellikle hizmet sektöründe satış sonrası müşteri memnuniyeti sağlama ereğine yönelik olarak, son kullanıcıların her türlü bilgisinin firmalarca alınıp saklanması sonucunu doğurdu. Saklanacak ayrıntılı bilgilerin, üzerinde tutulacağı sayısal ortamlarda başgösteren "yer darlığı" yeni arayışlar için başlangıç oldu. Son birkaç yılda öne çıkan yeni yapıyı özetlersek: İşletmeler; müşterilerini daha iyi tanıyıp, onlara "bireyselleştirilmiş - kişiye özel" hizmetleri sunabilmek için onlarla ilgili çok sayıda bireysel bilgiyi saklamak durumunda kalmaktadır.
- Eğitim; Öğrenme süreçlerinin bireyselleştirilmesinde öğrenme analitikleri kullanılarak büyük veri işlenmekte, öğrenenlerin öğrenme ihtiyaçlarına, davranışlarına ve ortaya çıkan örüntülere göre öğrenme süreçleri tasarımlanabilmektedir.
- Hastaneler; hastalarına yönelik etkili, bireysel, kişiselleştirilmiş, tıbbi hizmetler sunabilmek için, bireysel bazdaki verileri kendi sayısal ortamlarında depolamaktalar.
- Hükûmetler; yurttaşlarına yönelik bilgi ve hizmetleri işleyip, saklama konusunda oluşan çok büyük ölçekli veri ile çalışmak zorundadırlar. Örneğin, RTÜK kararları gereği, ülkemizdeki televizyon kanallarının son bir yıllık yayınlarını saklama zorunluluğu var. Saklanacak bilgiler, "Büyük Veri" olarak tanımladığımız türden.
- İnternet üzerindeki üretici ve tüketicilerin veri üretimini hızlandırması, başta servis sağlayıcı firmalara olmak üzere, büyüyen bilgiyi harmanlayıp, anlamlı biçime dönüştürerek kullanıma yeniden sunma görevi yüklüyor.
- Bankalar, müşterileriyle ilgili olarak toplayıp sakladıkları bilgiler yoluyla, kullanıcısını tanıyan, İnternet şubesine o gün ne için girdiğini bilen ve buna göre ana sayfayı, menüyü en etkin hale getiren, müşterisine hatırlatmalar yapan, özelleştirilebilir arayüzler sunan, zengin içerikli, hızlı ve kullanışlı bir 7/24 şube haline geldi.
- Enerji firmaları, akıllı şebeke ve sayaçlar kullanarak, abonelerinin bireysel kullanımlarıyla ilgili oluşan verileri, saklayıp, işlemek durumundalar.
- İlaç sanayisinde; örneğin "kanser araştırmaları" için oluşturulan büyük genomik veritabanları, araştırmacıların sürekli erişimine açık olmak durumundadır.
Ek olarak; Uydu/Harita Dizgeleri (GPS), Akıllı Gezgin Telefonlar (GSM), çok yüksek çözünürlüklü fotoğraflar çekebilen yeni nesil kameralarla üretilen, ses ve görüntü bilgileri; saklama ortamlarının sınırlarını zorlayıp, verimliliklerini düşürüyor. Her türlü gezgin aygıtlar üzerinde çalışabilen, İnternet tabanlı yazılım ve uygulamalarca üretilenlerle birlikte, Facebook, Twitter gibi toplumsal medya ortamlarında kullanıcılarca üretilen bilgilerin saklanması gereği, bilişim konusu ile ilgili girişimcileri de, Büyük Veri alanına itti. Saydığımız, bu hemen usumuza geliveren örnekler ve benzerlerince üretilen; işlenmesi, saklanması ve irdelenmesi önceki nesil veritabanlarından ayrımlı yöntemler gerektiren büyük ölçekli verilere, kısaca Büyük Veri'ye odaklanıyoruz artık.
Gelecekte
"İçinde bulunduğumuz Büyük Veri çağında yatırımcılar, teknoloji girişimcileri, medya ve danışmanlık şirketleri Büyük Veri konusuna odaklanarak, yeni fırsatlar yakalıyor. Bulut Barındırma çözümlerinin basitleşip ucuzlayarak genele yayılması, veri işleme konusundaki ekonomik dengeleri temelden değiştirdi. Yakın geleceğin en önemli teknoloji piyasasının Büyük Veri üzerinde oluşması, önümüzdeki beş yıl içinde de bu pazarın elli milyar doları aşması bekleniyor. Dünya çapında yıllık veri hacmindeki büyüme %59 ve büyümenin artarak devam etmesi bekleniyor. Bu büyümenin merkezinde hem geleneksel hem de yeni veri kaynakları yatıyor. IDC dijital kayıtların bu sene sonunda 1.2M Zetabytes (1021bytes)’a ulaşacağını, önümüzdeki on sene içinde de 44 katına çıkacağını tahmin ediyor. Bir önceki paragrafta bahsettiğimiz büyümenin asıl kaynağı yapısal olmayan verilerden geliyor. Yapısal olmayan verilerin yaklaşık %80′nin değersiz olduğuna dair mit ise gerek arama motorlarının gerekse de e-ticaret yapan kurumların tıklama verisini takip ederek ulaştıkları başarı sonrasında çürütülmüş görünüyor. Asıl gereksinim ise yapısal ve yapısal olmayan verinin saklanması, beraberce analiz edilerek, veri madenciliği işlemlerine tabi tutulması.
Büyük Verinin Artmasının Nedenleri
1980 lerde ürünün çok daha önemli olduğu zamanlarda, şirketlerin asıl amacı belirli bir ürünü üretmek ve müşteriye ulaşımını sağlamaktı.Bu yıllarda ERP sistemlerinin ön planda olduğunu görüyoruz. ERP(Enterprise Resource Planning) sistemlerinin geliştirilmesindeki asıl amaçlardan bazıları; müşteri, dağıtım merkezi, tedarikçiler ve üretimi bir platformda toplamaktı. Bir zamanlar çok popüler olan bu sistemde doygunluğa ulaşıldığında insanlar şu soruyu sormaya başladılar “benim için doğru müşteri kimdir?”
CRM sistemlerinin doğuşu da bu soruyla başladı denilebilir, CRM (Customer Relationship Management-Müşteri ilişkileri Yönetimi)'in asıl ilgilendiği nokta “Doğru ürün ya da hizmeti, doğru müşteriye, doğru fiyatla, doğru kanalda, doğru yerde ve zamanda sunmaktır.“ Yani artık ürüne göre müşteri değil, müşteriye göre ürün devri başlamıştır. Son 10 yıldır yükselen değer olan bu metodoloji giderek önemini arttırmaktadır.
Veri miktarı oluşumundaki hızlı artışın temel nedeni ise sosyal ağ etkileşimlerinin büyüyen hacmi, lokasyon duyarlı cihazların artması ve fiziksel dünya hakkında bilgi yakalayan ve ileten "akıllı sensörler"in sayısındaki artış olarak özetlenebilir. Tabii ki bunlara video ve medya kaynakları da eklenebilir.
Son birkaç yılda mobil teknoloji ve sosyal medyadaki gelişmeler ile birlikte gerçek zamanlı datanın önemi artmış, datanın hacminin yanında çeşitliliği ve data artış hızı da bu gelişmelerden etkilenmiştir. Akıllı telefonların kullanım oranındaki artış, İnternete 7/24 erişim olanağı sağlamasının yanı sıra Whatsapp gibi online mesajlaşma uygulamaları ile Facebook, Twitter ve Instagram gibi sosyal medya uygulamaları, anlık mesaj, fotoğraf ve video paylaşımlarını artırmış, GPS teknolojisi sayesinde ise lokasyon bazlı data üretimini mümkün kılmıştır. DOMO’nun her yıl yayımladığı Data Never Sleeps raporunun 2014 versiyonunda açıklanan rakamlara göre dakikada 277.000 tweet atılırken, Instagram’da 216.000 yeni fotoğraf yükleniyor ve Youtube’a 72 saatlik video kullanıcılar tarafından upload ediliyor. Data üretimindeki artışın boyutlarını daha net olarak anlamak için aynı raporun 2011 rakamları incelenirse, dakikada yaklaşık 100.000 tweete karşılık Instagram’da sadece 3600 fotoğraf yüklendiği ve Youtube’a yaklaşık 48 saatlik video upload edildiği görülebilir.
Kaynakça
- ^ a b (Big Data: A Revolution That Will Transform How We Live, Work, and Think, Mayer-Schonberger, Viktor, Cukier, Kenneth, Boston, New York 2013)
- ^ "Arşivlenmiş kopya". 3 Eylül 2014 tarihinde kaynağından . Erişim tarihi: 12 Aralık 2015.
- ^ "Arşivlenmiş kopya". 27 Mart 2014 tarihinde kaynağından . Erişim tarihi: 12 Aralık 2015.
- ^ . 9 Aralık 2013 tarihinde kaynağından arşivlendi. Erişim tarihi: 12 Aralık 2015.
- ^ Bozkurt, A. (2016). Öğrenme analitiği: e-öğrenme, büyük veri ve bireyselleştirilmiş öğrenme. Açık Öğretim Uygulamaları ve Araştırmaları Dergisi (AUAd), 2(4), 55-81. http://www.academia.edu/29648170/Öğrenme_analitiği_e-öğrenme_büyük_veri_ve_bireyselleştirilmiş_öğrenme 3 Şubat 2018 tarihinde Wayback Machine sitesinde .
- Yılmaz Ersöz, "Bulut Barındırma", TDD S.149, Mart 201 (Bu kaynak esas alınmıştır.Diğer kaynaklardan yararlanılmış ve yorumlanmıştır)
- Kusnetzky, Dan. "What is "Big Data?"". ZDNet^ Cukier, K.
- (25 February 2010). "Data, data everywhere". The Economist.
- M2M - Machine to Machine - Aracıya gerek duymayan Aygıttan Aygıta iletişim, YE
- İş analitiği çözümleri 2012 presentation.Cüneyt Göksu httpwww.slideshare.netCuneytGoksubig-data-nedir-ve-ibm-zmleri
- Big data impaxt in the World 21 Mart 2016 tarihinde Wayback Machine sitesinde .
- Big data 27 Mayıs 2021 tarihinde Wayback Machine sitesinde .
- 15.12.2013
- http://www.karel.com.tr/blog/buyuk-veri-big-data-nedir-uygulamalar-ve-firsatlar-yonetici-ozeti 15 Aralık 2013 tarihinde Wayback Machine sitesinde . 15.12.2013
- - See more at: Arslan,Yusuf.(06 Aralık 2013) big data-büyük ver.Erişim tarihi(19.12.2013),
- Bilge,Elif.(25 nisan 2013) büyük veri nedir ?.Errişim Tarihi (26.12.2013),http://elifbilgeeder.blogspot.com/2013/04/buyuk-veri-nedir.html 29 Aralık 2013 tarihinde Wayback Machine sitesinde .
- Ökan,Erencan.(8 ağustos 2013) büyük veri . Erişim Tarihi (12.12.2013),
- Baş, Ahmet. (12 mayıs 2015) Big Data’ya Dair. Erişim Tarihi (13.05.2015),http://www.connectedvivaki.com/big-dataya-dair-1-konuk-yazar/ 14 Mayıs 2015 tarihinde Wayback Machine sitesinde .
- Barske, Arzu. (2013) Big Data Turkce White Paper.,https://www.academia.edu/4556547/Big_Data_Turkce_Whitepaper/ 11 Temmuz 2015 tarihinde Wayback Machine sitesinde .
- Barske, Arzu. (2013-2014) Big Data Business Guide.,https://www.academia.edu/6520364/Big_Data_Business_Guide_Complete_Big_Data_Overview_for_Enterprises_Example_of_Big_data_Projects/ 28 Ağustos 2015 tarihinde Wayback Machine sitesinde .
- Mayer-schönberger, V. & Cukier, K. (2013). Data: A Revolution That Will Transform How We Live, Work, and Think.
wikipedia, wiki, viki, vikipedia, oku, kitap, kütüphane, kütübhane, ara, ara bul, bul, herşey, ne arasanız burada,hikayeler, makale, kitaplar, öğren, wiki, bilgi, tarih, yukle, izle, telefon için, turk, türk, türkçe, turkce, nasıl yapılır, ne demek, nasıl, yapmak, yapılır, indir, ücretsiz, ücretsiz indir, bedava, bedava indir, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, resim, müzik, şarkı, film, film, oyun, oyunlar, mobil, cep telefonu, telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, bilgisayar
Bu madde Vikipedi bicem el kitabina uygun degildir Maddeyi Vikipedi standartlarina uygun bicimde duzenleyerek Vikipedi ye katkida bulunabilirsiniz Gerekli duzenleme yapilmadan bu sablon kaldirilmamalidir Subat 2013 IBM tarafindan Vikipedi icin yapilmis ve degistirmeleri gosteren gorsellestirme Bircok terabyte buyuklugunde resim ve yazilardan olusan bu veri buyuk veri icin klasik bir ornektir Buyuk VeriGunumuzde bilgi toplumunun unsurlarini hayatin her alaninda gormek mumkundur Artik cogu insanin cebinde bir akilli telefon cogu insanin da evinde bir bilgisayar ve tum sirketlerin arka ofislerinde bilgi teknolojileri yonetimini yapan birimler bulunmaktadir Ancak bilginin kendisi o kadar gorunur degildir Bununla birlikte bilgisayarlarin insan hayatina girmesinden ancak yarim asir sonra bilgi miktari anlamli ve ozel bir nitelik kazanacak sekilde toplanmaya baslamistir Gunumuzde sadece bilgi miktari artmamis ayni zamanda bilgiye erisim hizi da artmistir Niceliksel degisiklik beraberinde niteliksel degisikligi de getirmistir Verinin manali bir butun olusturacak sekilde toplanmasi ilk once astronomi ve genetik alaninda gerceklesmistir Buyuk veri kavrami da ilk olarak bu alanlarda kullanilmis daha sonra bu kavram her alan icin kullanilmaya baslanmistir Buyuk veri artik hayatimizin her alaninda kendini gostermeye baslanmistir Ornegin Internet arama motoru Google dan hastaliklarin teshis ve tedavisi Internet uzerinden alisverislere kadar her alanda buyuk veri karsimiza cikmaktadir Buyuk veri toplumsal medya paylasimlari ag gunlukleri bloglar fotograf video log dosyalari gibi degisik kaynaklardan toparlanan tum verinin anlamli ve islenebilir bicime donusturulmus bicimine denir Olageldigi gibi iliskisel veri tabanlarinda tutulan yapisal verinin disinda kalan son donemlere dek cok da kullanilmayan yapisal olmayan veri yiginidir Artik yikilmis olan yaygin bilisimci inanisina gore yapisal olmayan veri degersizdi ama buyuk veri bize bir sey gosterdi o da gunumuzdeki bilgi coplugu diye adlandirilan olgudan muazzam derecede onemli kullanilabilir yararli yani coplukten hazine cikmasina neden olan yegane sistemdir Buyuk veri web sunucularinin loglari Internet istatistikleri sosyal medya yayinlari bloglar mikrobloglar iklim algilayicilari ve benzer sensorlerden gelen bilgiler GSM operatorlerinden elde edilen arama kayitlari gibi buyuk sayida bilgiden olusuyor Buyuk veri dogru analiz metotlari ile yorumlandiginda sirketlerin stratejik kararlarini dogru bir bicimde almalarina risklerini daha iyi yonetmelerine ve inovasyon yapmalarina imkan saglayabiliyor Sirketlerin cogu halen konvansiyonel veri ambari ve veri madenciligi yontemleriyle elde ettikleri datalardan yola cikarak karar almaya devam ediyorlar Ancak tuketici egilimlerini dinamik sekilde ongorebilmek buyuk veriyi analiz edebilmekten ve bu analizlere gore hareket edebilmekten geciyor Buyuk veri geleneksel veritabani araclari ve algoritmalari ile islemesi zor olan bu buyuk verinin olusturulmasi saklanmasi akisi analiz edilmesi gibi bircok konuyu iceren bir terim olarak karsimiza cikmaktadir Veriler klasik veri tabanlarinin kaldiramayacagi buyuklukte oldugu gibi verinin buyume hizi da bir bilgisayar veya bir veri depolama unitesini asmaktadir 2012 rakamlari ile dunyada gunluk 2 5 Kentirilyon byte veri uretilmektedir Bu capta buyuk veriyi isleme transfer etme gibi islerin tumune Buyuk veri Big Data adi verilmektedir Gunumuz veritabanlari bu capta buyuyen verileri tutmakta yeterli degildir Iliskisel veritabanlari gigabyte seviyesinde veri tutabilirken buyuk data ile petabyte seviyelerinde veriler saklayabiliriz Ancak buyuk data sadece yigin isleme Batch islemleri icin uygundur Transactions gibi gelismis veritabanlarinda kritik oneme sahip ozellikler yoktur Veritabanlari okuma yazma guncelleme gibi islemleri transactionlar araciligi ile yapabildigi icin bu islemler atomik olarak kabul edilir ve cesitli kilitleme mekanizmalari ile verinin birden fazla islem tarafindan degistirilerek tutarsizlasmasi engellenir Buyuk veri bir kere yazilip defalarca okuma islemi yapildigi durumlarda kullanilmasi gerekir Cunku veriler birden fazla yerde paralel olarak islenir Bu buyuklukte veri RFID sensorlerinden sosyal medyaya hastanelere kadar bircok alanda uretilmektedir DNA dizilislerinin analizi hava durumu sensorlerinden gelen veriler basta olmak uzere verileme islemlerinin yapildigi bircok alanda buyuk veri bir ihtiyac olarak karsimiza cikmaktadir Buyuk Veri Devrimi 2009 yilinda domuz gribi olarak adlandirilan salginin H1N1 virusu 1918 yilindaki Ispanyol gribi salgininin korkunc hatiralarindan dolayi dunya kamuoyunda ciddi bir endise yarattigi donemlerde Google bilimsel dergi Nature da onemli bir arastirma yayimladi Arastirmanin temeli insanlarin Internet uzerinde yaptiklari aramalara dayanan matematiksel modeller ile gribin ABD de hangi bolgelere ve hangi yogunlukta yayildigini tespit etmekti Insanlarin grip belirtileri basladiktan birkac gun sonra doktora gitmeleri konuyla ilgilenen saglik kurumlarinin ellerindeki verilerin saglikli olmamasi gibi bir sonuc dogurmaktaydi Google elindeki muazzam veri tabani ve veri isleme kapasitesiyle Amerikan saglik otoritelerinden daha etkili bir sekilde hastaligin yayilmasiyla ilgili bilgilere ulasabilmekte idi Bunun icin 450 milyon farkli matematiksel model kullanildi ve arama terimleri CDC 2007 ve 2008 yilindaki gercek grip vakalari ile karsilastirildi Sonuc olarak 45 arama terimi ile resmi yayilma oranlari arasinda cok guclu bir korelasyon oldugu tespit edildi Buyuk veri is dunyasinda onemli yeniliklerin ortaya cikmasina neden olmustu Ucak biletlerini alinmasi buyuk veri kullanimina guzel bir ornek olmaktadir Google tarafindan ortaya konulan arastirma Internetin bu zamana kadar kamu sagligi kapsamda kullanilmayan onemli bir yonunu ortaya koymaktaydi Internet arama motoru devinin elindeki veri insanlik icin cok kiymetli yenilikci mal ve hizmetlerin ortaya cikmasina sebep olmaktaydi Isleme gucu ve veri depolamanin birkac yil oncesine kadar cok pahali olmasi bu tur yeniliklerin ortaya cikmasini zorlastirmaktaydi Ancak gerek teknolojinin gelismesi gerekse zihniyet degisikligi veriyi onemli bir ekonomik degeri olan onemli bir is girdisi sekline donusturmustur Bilgisayarlar bundan 50 yil oncesinde insan hayatina girmis olmasina ragmen toplanan veri miktari ancak bu minvaldeki buyuk degisikliklere sebep olacak seviyeye son birkac yil icinde ulasmistir Genom olarak adlandirilan genetik haritamiz 2003 yilinda cizilmis ancak 3 milyar ciftten olusan halkalarin siralanabilmesi 10 yil kadar surmustur Bugun bu sayidaki DNA lar sadece bir gunde siralanabilmektedir ABD de her gun yaklasik 7 milyar hisse senedi el degistirmekte ve bu islemlerin ucte ikisi devasa verileri analiz matematiksel modellere dayanan algoritmalar tarafindan yapilmaktadir Insanlik tarihinde bilgi uretiminin ussel olarak arttigi bazi donemler bulunmaktadir Matbaanin Avrupa da kullanilmaya baslamasindan itibaren birkac on yil icinde basilan kitap sayisi o zamana kadar tum Avrupa da basilan kitap sayisindan daha fazla bir sayiya ulasti Veri isleme ve depolama teknolojilerindeki gelismelerle birlikte sadece birkac yil icinde uretilen veri bu zamana kadar uretilen tum analog ve sayisal verinin birkac katina ulasmaktadir Daha onceleri veriye ulasma ve ulasilsa bile veri isleme vasitalarindaki kisitlardan dolayi tercih edilen ornekleme modeli artik yerini tum verinin analiz edildigi ve boylece cok daha dogru ve detayli analizlere ulasilabilen yeni bir doneme yerini birakmaya baslamistir Ozellikle sosyal bilimler alaninda insanlar arama yaptiklari terimler ya da Facebook gibi sosyal paylasim sitelerindeki begen tiklamalari insanlarin tercihleriyle ilgili onemli ipuclarini ortaya koymaktadir Bu veri ozellikle sirketlerin pazarlama stratejilerinde cok onemli bir girdi olarak yerini almaya baslamistir Devasa verilerin artik cok aha etkin bir sekilde islenebilmesi ticari hayatin pek cok alanini derinden etkilemistir Verilerden elde edilen korelasyonlar Walmart ve Amazon com gibi pek cok ulkenin milli hasilasindan daha fazla satis yapan sirketlerin ortaya cikmasina neden olmustur Artik elde edilen ve islenen veriler ile korelasyon temelli bir dunyaya gidildigi yonunde degerlendirmeler yayginlik kazanmaktadir Bu degerlendirmelere gore verilerin kisitli oldugu eski zamanlarda bilim adamlari teorilere ihtiyac duymaktaydi ama gunumuzde artik veriler konusmakta ve teorilere ihtiyac bulunmamaktadir Bu yuzden bilimsel metodolojinin de Internet vasitasiyla elde edilen veriyi isleme kapasitesine sahip bilgisayarlar sayesinde degisecegi iddia edilmektedir Artik korelasyonun nedenselligin yerini alacagi ve nicin sorusundan ziyade ne sorusunun onem kazanacagi ifade edilmektedir Internet in suphesiz en onemli katkilarindan birisi bilgiye erisim noktasindadir Bilgi cesitli formlarda sunuluyor olmasina ragmen klasik yontem olan kitaplar vasitasiyla bilgiye erisim konusunda da Internet cok onemli gelismelere vesile olmustur Kitaplarin Internet uzerinden arastirilmasi ve adrese teslim edilmesi Internet oncesine gore cok onemli bir katki olarak karsimiza cikmaktadir Ayrica kitaplarin google gibi sirketler tarafindan dijital ortama aktarilmasi kitaplara erisim konusundaki sinirlari ortadan kaldirmaktadir Bu zamana kadar 130 milyon baslikta farkli kitabin yayimlandigi ve bu kitaplarin yaklasik 20 milyonunun yaklasik 15 Google tarafindan dijital ortama aktarildigi gorulmektedir Internet vasitasiyla bilgi toplama sadece pasif bir toplayici olmaktan oteye gitmektedir Ornegin ReCaptcha denilen bir uygulamada kullanicilarin gercek insanlar oldugunu dogrulamak icin daha once rastgele harflerin yazilmasiyla yapilan dogrulamalarin hem bu amacin gerceklestirildigi hem de bilgisayarlar tarafindan okunamayan kelimelerin ucretsiz olarak kullanicilar tarafindan okundugu gorulmektedir Boylece guvenlikle ilgili bir yeniligin katma degeri olan baska bir uygulamaya evrildigi gorulmektedir Bu ornek veri toplama ve kullanimiyla ilgili tum alanlarda gorulmektedir Veri bir defa kullanilip atilan ya da zamanla degeri kaybolan bir ticari emtiadan ziyade gelisen teknoloji ile her zaman yeni kullanim alanlari bulan bir varlik konumundadir Google nin sokak goruntuleri icin topladigi devasa bilgi sadece Google Earth uygulamasi icin degil ayni zamanda GPS hizmetleri icin kullanilmaya baslanmistir Sirket ayrica sokaklardaki Wi Fi baglantilarinin envanterine de sahip olmustur Arama motorlarinda yapilan aramalar buna guzel bir ornek teskil etmektedir Arama motorlarindaki istatistikleri kullanarak yeni yildaki moda egilimlerinden ev fiyatlarindaki dalgalanmalara kadar pek cok hususta tahminler yuruten cok sayida sirket ortaya cikmaktadir Internetin olumsuz etkilerinden bahsedilirken sikca tekrarlanan husus ozel hayatin gizliliginin sikca ihlal edildigidir Soguk Savas donemindeki komunist blokta yer alan ulkelerin kendi vatandaslarini izlemek icin devasa buyuklukte casusluk sebekeleri kurdugu bilinmektedir Dogu Almanya da faaliyet gosteren Stasi Staatssicherheit State Security kurdugu ve yuzbinlerle ifade edilen calisani ile neredeyse tum Dogu Alman vatandaslarini izlemistir Internetin ortaya cikmasiyla birlikte artik bu tur izleme faaliyetleri hem kolaylasmis hem de son derece kapsamli hala gelmistir Ayrica onceden sadece istihbarat orgutleri tarafindan gerceklestirilen bu tur faaliyetler hayatimizin vazgecilmez bir parcasi haline gelen Internet siteleri tarafindan kullanicinin kendi istegiyle verdigi bilgiler vasitasiyla cok daha kapsamli olarak uygulanmaktadir Facebook bizim sosyal iliskilerimiz dahil nelerden hoslandigimizi Google arama aliskanliklarimizi Twitter aklimizdan gecirdiklerimizi e ticaret siteleri de alisveris aliskanliklarimizi bilmektedir Mobil isletmeciler kiminle ne konustugumuzu ve hatta tatillerimiz ve bos vakitlerimizi kiminle gecirdigimizi ve hangi arkadasimiza ne kadar yakin oldugumuzu bilmektedir Yalnizca sirketler degil devletlerinde vatandaslarinin Internet uzerinden gerceklestirdikleri islemleri izleme kapasitesi onemli oranda artmistir Amerikan Guvenlik Ajansi NSA National Security Agency tarafindan yapilan bu izlemelerle ilgili pek cok skandal ortaya cikmistir Buyuk Veri Icerisindeki Veri Bilesenleri Buyuk veri platformunun olusumunda bes ana bilesen vardir Bunlar variety velocity volume verification ve value dir Genel olarak 5v diye aciklandigi icin Ingilizce karsiliklarina yer verilebilinir Variety Cesitlilik Uretilen verinin yuzde 80 i yapisal degil ve her yeni uretilen teknoloji farkli formatlarda veri uretebiliyor Telefonlardan tabletlerden butunlesik devrelerden gelen turlu cesitlilikte Veri Tipi ile ugrasilmasi gerekiyor Bir de bu verilerin farkli dillerde Non Unicode olabilecegini dusunurseniz butunlesik olmalari birbirlerine donusmeleri de gerekli Velocity Hiz Buyuk Veri nin uretilme hizi cok yuksek ve gittikce artiyor Daha hizli ureyen veri o veriye muhtac olan islem sayisinin ve cesitliliginin de ayni hizda artmasi sonucunu doguruyor Volume Veri Buyuklugu IDC istatistiklerine gore 2020 de ulasilacak veri miktari 2009 un 44 kati olacak Su anda kullanilan buyuk diye adlandirdigimiz kapasiteleri ve buyuk sistemleri dusunup bunlarin 44 kat buyuklukte verilerle nasil basa cikacaklarini hayal etmek gerekiyor Kurumun veri arsivleme isleme butunlestirme saklama vb teknolojilerinin bu buyuklukte veri hacmi ile nasil basa cikacaginin kurgulanmasi gerekiyor 2010 lu yillarda dunyadaki toplam bilisim harcamalari yilda 5 artmakta ancak uretine veri miktari 40 artmaktadir Verification Dogrulama Bu bilgi yogunlugu icinde verinin akisi sirasinda guvenli olmasi da bir diger bilesen Akis sirasinda dogru katmadan olmasi gerektigi guvenlik seviyesinde izlenmesi dogru kisiler tarafindan gorunebilir veya gizli kalmasi gerekiyor Value Deger En onemli bilesen ise deger yaratmasi Butun yukaridaki eforlarla tariflenen Buyuk Veri nin veri uretim ve isleme katmanlarinizdan sonra kurum icin bir arti deger yaratiyor olmasi lazim Karar veris sureclerinize anlik olarak etki etmesi dogru karari vermenizde hemen elinizin altinda olmasi gerekiyor Ornegin saglik konusunda stratejik kararlar alan bir devlet kurumu anlik olarak bolge il ilce vb detaylarda hastalik ilac doktor dagilimlarini gorebilmeli Hava Kuvvetleri butun ucucu envanterindeki tasitlarinin anlik yerlerini ve durumlarini gorebilmeli geriye donuk bakim tarihcelerini izleyebilmeli Bir banka kredi verecegi kisinin sadece demografik bilgilerini degil yemek yeme tatil yapma aliskanliklarini dahi izleyebilmeli gerekirse sosyal aglarda ne yaptigini gorebilmeli Buyuk Verinin Uygulandigi Ornekler Internetin cok defa fazla kisi tarafindan kullanilir olmasi gunluk yasamda aldigimiz hizmetlerin Internet uzerine tasinan uygulama yazilimlari yoluyla kolayca erisilebilir olmasi nedeniyle olusan yaygin kullanim ozellikle hizmet sektorunde satis sonrasi musteri memnuniyeti saglama eregine yonelik olarak son kullanicilarin her turlu bilgisinin firmalarca alinip saklanmasi sonucunu dogurdu Saklanacak ayrintili bilgilerin uzerinde tutulacagi sayisal ortamlarda basgosteren yer darligi yeni arayislar icin baslangic oldu Son birkac yilda one cikan yeni yapiyi ozetlersek Isletmeler musterilerini daha iyi taniyip onlara bireysellestirilmis kisiye ozel hizmetleri sunabilmek icin onlarla ilgili cok sayida bireysel bilgiyi saklamak durumunda kalmaktadir Egitim Ogrenme sureclerinin bireysellestirilmesinde ogrenme analitikleri kullanilarak buyuk veri islenmekte ogrenenlerin ogrenme ihtiyaclarina davranislarina ve ortaya cikan oruntulere gore ogrenme surecleri tasarimlanabilmektedir Hastaneler hastalarina yonelik etkili bireysel kisisellestirilmis tibbi hizmetler sunabilmek icin bireysel bazdaki verileri kendi sayisal ortamlarinda depolamaktalar Hukumetler yurttaslarina yonelik bilgi ve hizmetleri isleyip saklama konusunda olusan cok buyuk olcekli veri ile calismak zorundadirlar Ornegin RTUK kararlari geregi ulkemizdeki televizyon kanallarinin son bir yillik yayinlarini saklama zorunlulugu var Saklanacak bilgiler Buyuk Veri olarak tanimladigimiz turden Internet uzerindeki uretici ve tuketicilerin veri uretimini hizlandirmasi basta servis saglayici firmalara olmak uzere buyuyen bilgiyi harmanlayip anlamli bicime donusturerek kullanima yeniden sunma gorevi yukluyor Bankalar musterileriyle ilgili olarak toplayip sakladiklari bilgiler yoluyla kullanicisini taniyan Internet subesine o gun ne icin girdigini bilen ve buna gore ana sayfayi menuyu en etkin hale getiren musterisine hatirlatmalar yapan ozellestirilebilir arayuzler sunan zengin icerikli hizli ve kullanisli bir 7 24 sube haline geldi Enerji firmalari akilli sebeke ve sayaclar kullanarak abonelerinin bireysel kullanimlariyla ilgili olusan verileri saklayip islemek durumundalar Ilac sanayisinde ornegin kanser arastirmalari icin olusturulan buyuk genomik veritabanlari arastirmacilarin surekli erisimine acik olmak durumundadir Ek olarak Uydu Harita Dizgeleri GPS Akilli Gezgin Telefonlar GSM cok yuksek cozunurluklu fotograflar cekebilen yeni nesil kameralarla uretilen ses ve goruntu bilgileri saklama ortamlarinin sinirlarini zorlayip verimliliklerini dusuruyor Her turlu gezgin aygitlar uzerinde calisabilen Internet tabanli yazilim ve uygulamalarca uretilenlerle birlikte Facebook Twitter gibi toplumsal medya ortamlarinda kullanicilarca uretilen bilgilerin saklanmasi geregi bilisim konusu ile ilgili girisimcileri de Buyuk Veri alanina itti Saydigimiz bu hemen usumuza geliveren ornekler ve benzerlerince uretilen islenmesi saklanmasi ve irdelenmesi onceki nesil veritabanlarindan ayrimli yontemler gerektiren buyuk olcekli verilere kisaca Buyuk Veri ye odaklaniyoruz artik Gelecekte Icinde bulundugumuz Buyuk Veri caginda yatirimcilar teknoloji girisimcileri medya ve danismanlik sirketleri Buyuk Veri konusuna odaklanarak yeni firsatlar yakaliyor Bulut Barindirma cozumlerinin basitlesip ucuzlayarak genele yayilmasi veri isleme konusundaki ekonomik dengeleri temelden degistirdi Yakin gelecegin en onemli teknoloji piyasasinin Buyuk Veri uzerinde olusmasi onumuzdeki bes yil icinde de bu pazarin elli milyar dolari asmasi bekleniyor Dunya capinda yillik veri hacmindeki buyume 59 ve buyumenin artarak devam etmesi bekleniyor Bu buyumenin merkezinde hem geleneksel hem de yeni veri kaynaklari yatiyor IDC dijital kayitlarin bu sene sonunda 1 2M Zetabytes 1021bytes a ulasacagini onumuzdeki on sene icinde de 44 katina cikacagini tahmin ediyor Bir onceki paragrafta bahsettigimiz buyumenin asil kaynagi yapisal olmayan verilerden geliyor Yapisal olmayan verilerin yaklasik 80 nin degersiz olduguna dair mit ise gerek arama motorlarinin gerekse de e ticaret yapan kurumlarin tiklama verisini takip ederek ulastiklari basari sonrasinda curutulmus gorunuyor Asil gereksinim ise yapisal ve yapisal olmayan verinin saklanmasi beraberce analiz edilerek veri madenciligi islemlerine tabi tutulmasi Buyuk Verinin Artmasinin Nedenleri 1980 lerde urunun cok daha onemli oldugu zamanlarda sirketlerin asil amaci belirli bir urunu uretmek ve musteriye ulasimini saglamakti Bu yillarda ERP sistemlerinin on planda oldugunu goruyoruz ERP Enterprise Resource Planning sistemlerinin gelistirilmesindeki asil amaclardan bazilari musteri dagitim merkezi tedarikciler ve uretimi bir platformda toplamakti Bir zamanlar cok populer olan bu sistemde doygunluga ulasildiginda insanlar su soruyu sormaya basladilar benim icin dogru musteri kimdir CRM sistemlerinin dogusu da bu soruyla basladi denilebilir CRM Customer Relationship Management Musteri iliskileri Yonetimi in asil ilgilendigi nokta Dogru urun ya da hizmeti dogru musteriye dogru fiyatla dogru kanalda dogru yerde ve zamanda sunmaktir Yani artik urune gore musteri degil musteriye gore urun devri baslamistir Son 10 yildir yukselen deger olan bu metodoloji giderek onemini arttirmaktadir Veri miktari olusumundaki hizli artisin temel nedeni ise sosyal ag etkilesimlerinin buyuyen hacmi lokasyon duyarli cihazlarin artmasi ve fiziksel dunya hakkinda bilgi yakalayan ve ileten akilli sensorler in sayisindaki artis olarak ozetlenebilir Tabii ki bunlara video ve medya kaynaklari da eklenebilir Son birkac yilda mobil teknoloji ve sosyal medyadaki gelismeler ile birlikte gercek zamanli datanin onemi artmis datanin hacminin yaninda cesitliligi ve data artis hizi da bu gelismelerden etkilenmistir Akilli telefonlarin kullanim oranindaki artis Internete 7 24 erisim olanagi saglamasinin yani sira Whatsapp gibi online mesajlasma uygulamalari ile Facebook Twitter ve Instagram gibi sosyal medya uygulamalari anlik mesaj fotograf ve video paylasimlarini artirmis GPS teknolojisi sayesinde ise lokasyon bazli data uretimini mumkun kilmistir DOMO nun her yil yayimladigi Data Never Sleeps raporunun 2014 versiyonunda aciklanan rakamlara gore dakikada 277 000 tweet atilirken Instagram da 216 000 yeni fotograf yukleniyor ve Youtube a 72 saatlik video kullanicilar tarafindan upload ediliyor Data uretimindeki artisin boyutlarini daha net olarak anlamak icin ayni raporun 2011 rakamlari incelenirse dakikada yaklasik 100 000 tweete karsilik Instagram da sadece 3600 fotograf yuklendigi ve Youtube a yaklasik 48 saatlik video upload edildigi gorulebilir Kaynakca a b Big Data A Revolution That Will Transform How We Live Work and Think Mayer Schonberger Viktor Cukier Kenneth Boston New York 2013 Arsivlenmis kopya 3 Eylul 2014 tarihinde kaynagindan Erisim tarihi 12 Aralik 2015 Arsivlenmis kopya 27 Mart 2014 tarihinde kaynagindan Erisim tarihi 12 Aralik 2015 9 Aralik 2013 tarihinde kaynagindan arsivlendi Erisim tarihi 12 Aralik 2015 Bozkurt A 2016 Ogrenme analitigi e ogrenme buyuk veri ve bireysellestirilmis ogrenme Acik Ogretim Uygulamalari ve Arastirmalari Dergisi AUAd 2 4 55 81 http www academia edu 29648170 Ogrenme analitigi e ogrenme buyuk veri ve bireysellestirilmis ogrenme 3 Subat 2018 tarihinde Wayback Machine sitesinde Yilmaz Ersoz Bulut Barindirma TDD S 149 Mart 201 Bu kaynak esas alinmistir Diger kaynaklardan yararlanilmis ve yorumlanmistir Kusnetzky Dan What is Big Data ZDNet Cukier K 25 February 2010 Data data everywhere The Economist M2M Machine to Machine Araciya gerek duymayan Aygittan Aygita iletisim YE Is analitigi cozumleri 2012 presentation Cuneyt Goksu httpwww slideshare netCuneytGoksubig data nedir ve ibm zmleri Big data impaxt in the World 21 Mart 2016 tarihinde Wayback Machine sitesinde Big data 27 Mayis 2021 tarihinde Wayback Machine sitesinde 15 12 2013 http www karel com tr blog buyuk veri big data nedir uygulamalar ve firsatlar yonetici ozeti 15 Aralik 2013 tarihinde Wayback Machine sitesinde 15 12 2013 See more at Arslan Yusuf 06 Aralik 2013 big data buyuk ver Erisim tarihi 19 12 2013 Bilge Elif 25 nisan 2013 buyuk veri nedir Errisim Tarihi 26 12 2013 http elifbilgeeder blogspot com 2013 04 buyuk veri nedir html 29 Aralik 2013 tarihinde Wayback Machine sitesinde Okan Erencan 8 agustos 2013 buyuk veri Erisim Tarihi 12 12 2013 Bas Ahmet 12 mayis 2015 Big Data ya Dair Erisim Tarihi 13 05 2015 http www connectedvivaki com big dataya dair 1 konuk yazar 14 Mayis 2015 tarihinde Wayback Machine sitesinde Barske Arzu 2013 Big Data Turkce White Paper https www academia edu 4556547 Big Data Turkce Whitepaper 11 Temmuz 2015 tarihinde Wayback Machine sitesinde Barske Arzu 2013 2014 Big Data Business Guide https www academia edu 6520364 Big Data Business Guide Complete Big Data Overview for Enterprises Example of Big data Projects 28 Agustos 2015 tarihinde Wayback Machine sitesinde Mayer schonberger V amp Cukier K 2013 Data A Revolution That Will Transform How We Live Work and Think