Dosyalar, kaynak kodları yetmez... İşlem gücümüzüde paylaşalım

0
tongucyumruk
Bu fikir daha önce başkasının aklına geldi mi veya uygulanıyormu bilmiyorum ama dün aklımda belirdi ve bana oldukça çekici geldi doğrusu. Tabii az sonra anlatacaklarımı yapmaya benim teknik bilgim yetmeyeceğinden FM ile de paylaşmak istedim.

İnternetin ortaya çıkışından beri insanlar sürekli birşeyleri paylaşma eğilimi içindeydiler. Önceleri bu sadece düz metinden oluşan bilgiydi (kaynak kodu, şarkı sözü, bilimsel araştırma sonuçları vs). Daha sonra sıkıştırma algoritmaları gelişip bant genişlikleri arttıkça insanlar önce resimleri daha sonraları ise önce müziği ve videolarını paylaşmaya başladılar. Ve bence şimdi bunu sadece veri paylaşımının ötesine geçirmenin vakti geldi...
Distributed Computing her ne kadar isim olarak uzay yolundan çıkma gibi görünse de aslında artık çoğu ev kullanıcısının bile ucundan kıyısından örneklerini gördüğü duyduğu bir kavram. Yapılacak olan büyük hesaplamalar için internetteki birçok maiknenin boş işlemci güçlerinin kullanılması yeni bir fikir değil. Seti@Home vb. birçok proje büyük veri yığınlarının işlenmesi için internetin köşesine bucağına yayılmış evlerimizdeki PC'leri kullanıyor. Buradan ulaşacağımız en önemli sonuç teker teker pek güçlü sayılamayacak bilgisayarlarımızın (Bir DivX'i 15 dakikada encode etmeden hızlı demem bu alete [tamam abarttım]) biraraya gelip voltranı oluşturdukları zaman inanılmaz bir işlem kapasitesine sahip olduğudur.

Tamam buraya kadar hepimizin bildiği şeylerdi. Şimdi asıl konuya geliyoruz. Elimizin altında bu kadar dev bir işlem gücü yatıyorsa biz niçin bu gücü kullanmaktan mahrum kalalım? İnternetteki makinaların işlem gücünü kendi makinalarımızı oldukça kasan DivX encoding, Video ve 3D Rendering gibi işlerde kullanabilsek hoş olmazmıydı? Bu konuda aklıma ilk gelen çözüm şu oldu: İşlem gücünü paylaşan her makinada bir client yüklü olur ancak bu client normal koşullarda hiçbir işlem yapmaz. Ne yapacağı ona bu protokolü destekleyen ve yüksek işlem gücüne ihtiyaç duyan program tarafından internet üzerinden bildirilir. Örneğin a ve b diye iki değişken yollanıp al bunları topla sonrada sonucu şu makinaya bildir denilir. Client o işlemi yapıp sonucu yollar, veriyi alan makina işine devam eder...

Tabii bu şekilde ham verince birçok sorun göze çarpsada zaman içerisinde üstesinden gelinebileceğine inanıyorum... En önemli ve ilk bakışta göze batan problem bant genişliği gibi gözüküyor. Sonuçta bilgisayarımızın içindeki veriyolları bize yetmezken internet hızıyla bu iş nasıl olacak? Ama sonuçta 3 yıl önce bu kalitede filmleri paylaşmakta imkansız gözüküyordu...

Evet kulağa oldukça fantastik geliyor. Siz ne dersiniz?

Görüşler

0
cartman
http://www.distributed.net/ :)
0
sundance
Himmm. Valla cartman`in yaptigi gibi yapmiycam, zira bu ortamlarin mudavimi tongucun, seti@home gibi, idle cpu gucunu uzaydan gelen sinyalleri desifre etmek icin kullanan, ya da kansere aids`e cozum bulmak icin ayni mantikta calisan clientlardan haberi vardir saniyorum ;)

Sozkonusu programlar, kucucuk bir payload yukleyip makinaya, hesaplama tamamlandiktan sonra da sonucu yolluyorlar. O yuzden network de problem olmuyor, cunku yapilacak hesaplama, neyin hesaplanacagina gore coooooook buyuk bir sey.
0
tongucyumruk
Tabiiki haberim var... (ama açıkçası daha önce distributed.net'i ziyaret etmemiştim) Zaten bu önerdiğim sistemle Seti@Home vb... sistemlerin farkı bu noktada. Seti@Home türü sistemlerde işlediğiniz veri kilobytelar boyutunda. Öte yandan bu ufacık verinin didik didik incelenmesi gerekiyor ve bu yüzden benim emektar 200mmx'te bu iş aşağı yukarı 2-4 gün arasında sürüyor. Dahası benim düşüncem bu tip bir sistemi bilimsel araştırmalar vb. durumlar için değil ev kullanıcılarının işleri için kullanmak.

Genelde ev kullanıcıları bu kadar ufak verilerle çalışmıyorlar daha doğrusu veri üzerinde bu kadar ayrıntılı çalışmıyorlar. Ev kullanıcılarının yaptıkları genelde daha büyük veriler üzerinde daha kaba hesaplamalar yapmak. Örneğin birkaç GB boyutundaki DVD'yi DivX yapmak gibi... Eğer o veri bir Seti@Home inceliğinde işlenirse herhalde ortaya izlediğiniz en yüksek kalitedeki DivX film çıkar ama o filmi ancak (en iyi ihtimalle) torunlarınız izleyebilir. Hesaplamaların kabalığına rağmen verinin büyük miktarlarda olması işleri yavaşlatıyor. Eh bu büyük miktarlarda veriyi işlemek için de yüksek bant genişliğine ihtiyaç duyuyoruz.

Eminimki bu konuda bant genişliğinden başka daha büyük, önemli problemlerde vardır ama bir kere çalışmaya başlandıktan sonra en geç 3 yılda makul bir hal alacağını düşünüyorum.
0
izler
Işlem gücümüzü meydan okuyan sorunlar için kullandirmak iyi de ya bu sitelerin arkasindakiler islem gücümüzü bize söylemedikleri amaçlar için kullaniyorlar ise...
Görüş belirtmek için giriş yapın...

İlgili Yazılar

Onbeş satırda P2P uygulaması

sundance

Ed Felten, p2p'nin önüne geçilmesinin ne kadar zor olduğunu anlatmak için Python ile 15 (yazı ile onbeş) satırlık bir p2p uygulaması yazmış.

(Perl okunaklı değil, Python okunaklı diyenler özellikle okusun sınavda soracağız ne anladıklarını ;)

Yaratıcı beyinlerden yaratıcı çözümler.
İlgilenenler için 5K Javascript ile Wolfenstein ya da yine 5K'da Pron Sitesi

USB ADSL Modemler ve GNU/Linux Ayarları

FZ

Debian GNU/Linux, Türkçeleştirme ve Modem konularından sorumlu Internet bakanımız, değerli FM üyesi roktas bu sefer leziz bir ADSL ve Linux yazısı hazırlayıp sıcak sıcak bize sunmuş. Afiyet olsun.

Karadenizin güzide bir şehrinde sıradan bir Cuma gününün sıradan bir öğle sonrasında çalan bir telefonla başladı hikaye. Türk Telekom'dan arıyorlardı. Telefondaki sesi birilerine benzeterek gaf yaptım önce. Öyle ya Türk Telekom beni niye arasın? Ve üstelik içinde ADSL geçen cümleleri niçin kursun? Mevzu yaklaşık 3-5 ay önce hiçbir şekilde ciddiyet belirtisi göstermeyen bir aleladelikle yaptığım ADSL önbaşvurusuyla alakalı idi. "İlimizde ADSL hizmetine geçiş çalışmaları başladı. Ön başvuruda bulunanlara öncelik veriyoruz, merkez müdürlüğe gelmeniz halinde ADSL sözleşmesi yapabilirsiniz?" Hoppala, ağlasak mı gülsek mi? "Emriniz olur, hemen geliyorum" dediğimde saate bakmayı unutmuştum ve saat 16.30 sularıydı. "Acele etmenize gerek yok, Pazartesi günü de olabilir" cevabını fevkalade şüpheli bir tonla kabul ettim. Ya hafta sonu kararlarından cayarlarsa, ya Pazar günü şehrin bütün eşrafı ayaklanarak Ankara destekli bir müdahaleyle bütün o "/alelade/" ön başvuruların önüne geçerse ya kıymetlimisi elimisden alırlarsa, vesaire vesaire...

Yeni P2P - IRIS

cazz

Amerika'da, devlet tarafindan gorevlendirilmis bir ekip, var olan P2P teknolojisindeki sorunlari cozme amacli yeni bir P2P agi kuruyormus : IRIS (Infrastructure for Resilient Internet Systems)...

Projeden (ve MIT'den) Hari Balakrishnan soyle demis :

"Sunuculara karsi Denial of Service saldirilarini sona erdirecek!"

Balakrishnan ve arkadaslari , IRIS icin yeni bir arama algoritmasi da gelistireceklermis...

Bakiniz efenim...

E-Dergi : Bilgisayar ve İnternet Güncesi

anonim

E-Dergi.info 1 ay önce internet siteleri deryasına giriş yaptı. Karadeniz Teknik Üniversitesi, Bilgisayar Mühendislerinin açtığı bu siteyle amaçları Donanım, Yazılım, İnternet, Mobil ve Oyun dünyasını kısaca Bilgisayar'ı ilgilendiren bir dünyanın haberlerini sizlere sunmak ve yeniliklerden farklı ve genç bir bakış açısıyla haberdar olmanızı sağlamak.

Irchiver - Araştırma Amaçlı Bilgi Toplayıcı

bahadirkandemir

irc.freenode.net'te #fazlamesai'de sohbet ederken, network admini lilo tarafından gönderilen bir global mesaj dikkatimi çekti.

Helsinki Bilgi Teknolojileri Enstitüsü'nde Kompleks Sistem Hesaplamaları Grubu'ndan bir araştırmacı, Ville H. Tuulos, Freenode networkünü bir araştırma için kullanmak istediğini belirtmiş. İlgilenenlerin #searchengine kanalına gelmeleri istendi. Kanala girenlerin sayısı çok fazlaydı, girişler yavaşladığında proje yöneticisi Ville H. Tuulos sunuma başladı...