En Güçlü Süper Bilgisayar

Ara sıra falanca firma dünyanın en hızlı bilgisayarını yaptı, saniyede şu kadar veri işleyebiliyor gibi haberlerle karşılaşırız. Genelde ilgi çekme amaçlı olan bu tür haberlerin unuttuğu çok önemli bir gerçek var. Aslında dünyanın en güçlü süper bilgisayarı kimseye ait değil. Nasıl mı oluyor? Okumaya devam edin.

90’lı yılların sonlarına doğru gelişen bilgisayar ve bilgisayarlar arası iletişim teknolojileri (ağ ve internet gibi) bazı geliştiricilerin kafasında bir kıvılcım çakmasına neden oldu. Pek çok kişinin evinde süper olmasalar da normal bilgisayarlar mevcuttu. Acaba çok uzun işlem süreleri gerektiren verileri ufak parçalara bölerek dünya üzerindeki bilgisayarların gerekli hesabı yapmasını sağlamak mümkün müydü? Peki, iletişim nasıl sağlanacaktı? O zamanlar aşılması çok zor olarak düşünülen bu sorunlar internetin de gelişmesi, dünyanın dev bir ağ ortamına dönüşmesi sayesinde atlatıldı ve 90’ların ortasında GIMP ve Distributed.net adlı iki projeyle bu sistem hayata geçirildi.

1999 yılında geniş kitlelerin ilgisini çeken dünya dışı akıllı yaratık arama projesi SETI’nin, verilerini çözümlemek için bu yöntemi kullanmaya başlamasıyla bir dönüm noktası yaşandı. İngilizcede “Distributed Computing” olarak geçen ve Türkçeye de “Dağıtık Hesaplama” şeklinde çevrilen bu yöntem sayesinde gelecekte bütün dünya tek bir süper bilgisayar haline gelecek.

Bu hesaplama şeklinin çalışma mantığı son derece basit. Merkezi bir sunucuya girilen veriler, ufak parçalara bölünerek internet aracılığıyla gönüllü olarak bu projelere katkı sağlamak isteyen kullanıcıların bilgisayarlarına gönderiliyor. Veri parçalarını alan istemci (client) bilgisayarlar sistemin boşta olduğu sürelerde gerekli hesaplamayı yapıyorlar. İnceleme bittiğinde sonuçlar ve raporlar ana sunucuya geri gönderiliyor ve orada birleştiriliyor.

Normal bir bilgisayar kullanıcısı günlük işlerini yaparken işlemci gücünün küçük bir bölümünü kullanır geriye kalan kısmı boşa gider. Dünya üzerinde milyonlarca böyle kullanıcı olduğunu düşünürsek ne kadar büyük bir kaynağın israf edildiğini hayal etmek hiç zor değil. Örneğin, 2002 yılında yapılan bir hesaba göre böyle bir projenin bir milyon kadar kullanıcısı olduğunu varsaydığımızda yaklaşık 70 TeraFLOP’luk hesaplama gücü ortaya çıkıyordu. Hemen belirtelim ki o zamanlar dünyanın en güçlü süper bilgisayarı olan NEC Earth Simulator yaklaşık olarak 35 TeraFLOP işlem gücüne sahipti. Günümüzde ise IBM’in BlueGene/L süper bilgisayarı o değerleri kat kat aşmış olsa da (280,6 TeraFLOP) unutmayalım ki her geçen gün gelişen teknoloji sayesinde ev kullanıcılarının hesaplama gücü de sürekli artıyor.

Olaya sadece hesaplama açısından da bakmamak lazım. Depolama kapasitesi de bir o kadar inanılmaz. Artık standart hale gelen 80 GB sabit diskler yeni alınan her bilgisayarın içinde bulunuyor. Her kullanıcı 1 GB yerini genel kullanıma ayırsa ortaya inanılmaz bir sayı çıkıyor. 2015 yılında dünya üzerinde 1 milyar bilgisayar olacağı hesaplanıyor. Bu 1 milyar bilgisayardan bu tür bilimsel amaçlı projeler için 1 GB’lik bölümler ayırsak sonuçta elimizde 1 Exabyte gibi (1018 byte) inanılmaz bir alan oluşuyor. Hiçbir yığın depolama alanının tek başına böyle bir kapasiteye ulaşması mümkün değil (en azından günümüz teknolojisiyle).

Bu teknolojide gelecek olduğunu gören şirketler de yok değil. Şimdiden dağıtık hesaplama alt yapısı sunan firmalar oluşmuş durumda. Her ne kadar şimdilik bu projeler gönüllülük esasına dayansa da gelecekte buradan para kazanmak mümkün olabilir. Bilgisayarınızın çözdüğü veri başına belirli bir ücret hesabınıza gönderilir. Belki sizinle anlaşarak, örneğin günde belirli miktar işlemci saatini firmanın göndereceği verileri hesaplamaya ayıracağınızı garanti etmeniz durumunda, size bedava bilgisayar verebilirler. Bu işler aylık belirli kotalara bağlanabilir. İnsanlar bir birlerine işlemci saati satabilirler belki bunun bir çeşit borsası bile oluşur. Fazla hayal alemine dalmadan tekrar gerçeklere dönelim…

1 Yorum

Bir cevap yazın