Büyük Veri (Big Data) – Depolama

2.Kısımda Büyük Veri (Big Data) – Toplama ne olduğunu anlatmıştım. Şimdi veri tabanları ile gerçekleştirilen depolama sürecine kısaca göz atacağız. Çektiğimiz fotoğraf ve videolar sayesinde Terrabyte büyüklüğündeki verileri saklayacak veri diskleri evlerimize kadar ulaştı. Ancak, gerçek anlamda ‘Büyük veri’ depolama birimleri; petabyte, exabyte veya zettabyte seviyelerinde değerlendiriliyor. 2000 yılında tüm dünyada 800,000 petabyte büyüklüğünde veri saklandı. 2020 yılında bu verinin 35 zetabyte olacağı tahmin ediliyor. Bu tahmin, hacmin 40 milyon kattan daha fazla artacağı anlamına geliyor. Gelişen teknoloji, depolama donanım fiyatlarının düşmesini sağlarken diğer yanda saklanması gereken verilerin giderek artması da kullanılan donanım maliyetlerini yükseltmeye devam ediyor. Her gün Terabyte’larca veri depolanıyor. Örneğin Twitter her gün 7 Terabyte, Facebook 10 Terabyte veri saklıyor. Büyük veriyi, daha az maliyetle hiç bir donanım yatırımı yapmadan internet üzerinde oluşturulmuş çözümler üzerinde saklamak da mümkün. Örneğin; Google kendi büyük veri teknolojisini dışarıya açmış durumda. BigQuery isimli bu çözümle düşük maliyetli binlerce bilgisayar bir araya gelerek oluşan dev kümeler herkese açılmış durumda. Bunun dışında ‘Büyük Veri’ depolamak ve işlemek üzere geliştirilmiş çözümlere neredeyse her gün bir yenisi ekleniyor. Hatta benzer teknolojileri açık kaynak olarak geliştiren şirketler var. Bunların belli başlı bilinenleri arasında: Flurry (Flöri), Continuuity(Kontunyiti), Infochimps(infoçips), Kontagent(kontejent), Precog (prikog) ve Statsmix (statsmiks) sayılabilir.

Her türlü duygu ve düşüncenizi konun altına yazabilirsiniz. 🙂

Yorum Yap