Dosyalar, kaynak kodları yetmez... İşlem gücümüzüde paylaşalım

0
tongucyumruk
Bu fikir daha önce başkasının aklına geldi mi veya uygulanıyormu bilmiyorum ama dün aklımda belirdi ve bana oldukça çekici geldi doğrusu. Tabii az sonra anlatacaklarımı yapmaya benim teknik bilgim yetmeyeceğinden FM ile de paylaşmak istedim.

İnternetin ortaya çıkışından beri insanlar sürekli birşeyleri paylaşma eğilimi içindeydiler. Önceleri bu sadece düz metinden oluşan bilgiydi (kaynak kodu, şarkı sözü, bilimsel araştırma sonuçları vs). Daha sonra sıkıştırma algoritmaları gelişip bant genişlikleri arttıkça insanlar önce resimleri daha sonraları ise önce müziği ve videolarını paylaşmaya başladılar. Ve bence şimdi bunu sadece veri paylaşımının ötesine geçirmenin vakti geldi...
Distributed Computing her ne kadar isim olarak uzay yolundan çıkma gibi görünse de aslında artık çoğu ev kullanıcısının bile ucundan kıyısından örneklerini gördüğü duyduğu bir kavram. Yapılacak olan büyük hesaplamalar için internetteki birçok maiknenin boş işlemci güçlerinin kullanılması yeni bir fikir değil. Seti@Home vb. birçok proje büyük veri yığınlarının işlenmesi için internetin köşesine bucağına yayılmış evlerimizdeki PC'leri kullanıyor. Buradan ulaşacağımız en önemli sonuç teker teker pek güçlü sayılamayacak bilgisayarlarımızın (Bir DivX'i 15 dakikada encode etmeden hızlı demem bu alete [tamam abarttım]) biraraya gelip voltranı oluşturdukları zaman inanılmaz bir işlem kapasitesine sahip olduğudur.

Tamam buraya kadar hepimizin bildiği şeylerdi. Şimdi asıl konuya geliyoruz. Elimizin altında bu kadar dev bir işlem gücü yatıyorsa biz niçin bu gücü kullanmaktan mahrum kalalım? İnternetteki makinaların işlem gücünü kendi makinalarımızı oldukça kasan DivX encoding, Video ve 3D Rendering gibi işlerde kullanabilsek hoş olmazmıydı? Bu konuda aklıma ilk gelen çözüm şu oldu: İşlem gücünü paylaşan her makinada bir client yüklü olur ancak bu client normal koşullarda hiçbir işlem yapmaz. Ne yapacağı ona bu protokolü destekleyen ve yüksek işlem gücüne ihtiyaç duyan program tarafından internet üzerinden bildirilir. Örneğin a ve b diye iki değişken yollanıp al bunları topla sonrada sonucu şu makinaya bildir denilir. Client o işlemi yapıp sonucu yollar, veriyi alan makina işine devam eder...

Tabii bu şekilde ham verince birçok sorun göze çarpsada zaman içerisinde üstesinden gelinebileceğine inanıyorum... En önemli ve ilk bakışta göze batan problem bant genişliği gibi gözüküyor. Sonuçta bilgisayarımızın içindeki veriyolları bize yetmezken internet hızıyla bu iş nasıl olacak? Ama sonuçta 3 yıl önce bu kalitede filmleri paylaşmakta imkansız gözüküyordu...

Evet kulağa oldukça fantastik geliyor. Siz ne dersiniz?

Görüşler

0
cartman
http://www.distributed.net/ :)
0
sundance
Himmm. Valla cartman`in yaptigi gibi yapmiycam, zira bu ortamlarin mudavimi tongucun, seti@home gibi, idle cpu gucunu uzaydan gelen sinyalleri desifre etmek icin kullanan, ya da kansere aids`e cozum bulmak icin ayni mantikta calisan clientlardan haberi vardir saniyorum ;)

Sozkonusu programlar, kucucuk bir payload yukleyip makinaya, hesaplama tamamlandiktan sonra da sonucu yolluyorlar. O yuzden network de problem olmuyor, cunku yapilacak hesaplama, neyin hesaplanacagina gore coooooook buyuk bir sey.
0
tongucyumruk
Tabiiki haberim var... (ama açıkçası daha önce distributed.net'i ziyaret etmemiştim) Zaten bu önerdiğim sistemle Seti@Home vb... sistemlerin farkı bu noktada. Seti@Home türü sistemlerde işlediğiniz veri kilobytelar boyutunda. Öte yandan bu ufacık verinin didik didik incelenmesi gerekiyor ve bu yüzden benim emektar 200mmx'te bu iş aşağı yukarı 2-4 gün arasında sürüyor. Dahası benim düşüncem bu tip bir sistemi bilimsel araştırmalar vb. durumlar için değil ev kullanıcılarının işleri için kullanmak.

Genelde ev kullanıcıları bu kadar ufak verilerle çalışmıyorlar daha doğrusu veri üzerinde bu kadar ayrıntılı çalışmıyorlar. Ev kullanıcılarının yaptıkları genelde daha büyük veriler üzerinde daha kaba hesaplamalar yapmak. Örneğin birkaç GB boyutundaki DVD'yi DivX yapmak gibi... Eğer o veri bir Seti@Home inceliğinde işlenirse herhalde ortaya izlediğiniz en yüksek kalitedeki DivX film çıkar ama o filmi ancak (en iyi ihtimalle) torunlarınız izleyebilir. Hesaplamaların kabalığına rağmen verinin büyük miktarlarda olması işleri yavaşlatıyor. Eh bu büyük miktarlarda veriyi işlemek için de yüksek bant genişliğine ihtiyaç duyuyoruz.

Eminimki bu konuda bant genişliğinden başka daha büyük, önemli problemlerde vardır ama bir kere çalışmaya başlandıktan sonra en geç 3 yılda makul bir hal alacağını düşünüyorum.
0
izler
Işlem gücümüzü meydan okuyan sorunlar için kullandirmak iyi de ya bu sitelerin arkasindakiler islem gücümüzü bize söylemedikleri amaçlar için kullaniyorlar ise...
Görüş belirtmek için giriş yapın...

İlgili Yazılar

Siteleri kapatan birimin başkanını dinlemek ister misiniz?

coskung

TİB Internet Dairesi Başkanı Osman Nihat Şen, 6 Kasım akşamı Bilgi Üniversitesi Bilişim Teknolojisi Hukuku Uygulama ve Araştırma Merkezi'nin davetiyle, bir yüksek lisans dersine misafir konuşmacı olarak katılıyor. İlgili merkezin direktörü ve Bilgi Üniv. Hukuk Fakültesi Hocası Leyla Keser Berber'in duyuru metni aşağıda.

Mikrohaber kapanıyor...

urxalit

Mikrohaber yaklaşık 2 yıldır her sabah uğradığım bir siteydi. Güzel seçilmiş haberler, yorumlar ve teknik makaleler vardı. Yazın haber eklemeyi kesmişlerdi, baktım aşağıdaki son haberi eklemişler.

Üzücü birşey tabi, umarım ileride böyle güzel siteler görebiliriz...

Bir devrin sonu mu geliyor? RapidShare ve Sorumluluk

anonim

Daha önceleri Rapidshare Öcü mü başlıklı yazımızda bir şeyler anlatmaya çalışmıştık.

.tr Paylaşılamıyor

mrtksn

15 yıldır ODTÜ'den dağıtılan .tr uzantılı alan adlarının tescil hakkını Telekomünikasyon Kurumu devralmak istiyormuş.

Gerekçe olarak ise internet servis sağlayıcılarıyla ilgili yetkilendirmeler, denetlemeler ve numara tahsisiyle ilgili işlemlerin Kurum tarafından yapıldığını, internet alan adları konusunun da kıt kaynaklardan bir tanesi olduğunu, dolayısıyla bu konudaki yetkilendirmenin Telekomünikasyon Kurumu tarafından yapılması gerektiği gösterilmiş. Ancak asıl mesele 1 milyon doları geçen yıllık kar gibi görünüyor.

Haberin tamamını buradan okuyabilirsiniz.

Bu ISPde KAZAA downloadları daha hızlı!

sundance

'Müşteriyi memnun eden şey, şirketi de memnun eder' ilkesini hakkıyla uygulayabilen az şirket vardır. Hollanda'lı Wannadoo firması, bu habere göre, abonelerinin Kazaa üzerinden en çok download ettiği yaklaşık 1TB dosyayı, kendi sunucuları üzerinde tutup, buradan PeerCache isimli bir programla abonelerinin erişimine açmakta.

Bu sayede yurt dışı bağlantılarının %25 oranında rahatladığını söyleyen şirket yöneticileri, müşterilerinin de durumdan gayet memnun olduklarını belirtiyorlar.