Dosyalar, kaynak kodları yetmez... İşlem gücümüzüde paylaşalım

0
tongucyumruk
Bu fikir daha önce başkasının aklına geldi mi veya uygulanıyormu bilmiyorum ama dün aklımda belirdi ve bana oldukça çekici geldi doğrusu. Tabii az sonra anlatacaklarımı yapmaya benim teknik bilgim yetmeyeceğinden FM ile de paylaşmak istedim.

İnternetin ortaya çıkışından beri insanlar sürekli birşeyleri paylaşma eğilimi içindeydiler. Önceleri bu sadece düz metinden oluşan bilgiydi (kaynak kodu, şarkı sözü, bilimsel araştırma sonuçları vs). Daha sonra sıkıştırma algoritmaları gelişip bant genişlikleri arttıkça insanlar önce resimleri daha sonraları ise önce müziği ve videolarını paylaşmaya başladılar. Ve bence şimdi bunu sadece veri paylaşımının ötesine geçirmenin vakti geldi...
Distributed Computing her ne kadar isim olarak uzay yolundan çıkma gibi görünse de aslında artık çoğu ev kullanıcısının bile ucundan kıyısından örneklerini gördüğü duyduğu bir kavram. Yapılacak olan büyük hesaplamalar için internetteki birçok maiknenin boş işlemci güçlerinin kullanılması yeni bir fikir değil. Seti@Home vb. birçok proje büyük veri yığınlarının işlenmesi için internetin köşesine bucağına yayılmış evlerimizdeki PC'leri kullanıyor. Buradan ulaşacağımız en önemli sonuç teker teker pek güçlü sayılamayacak bilgisayarlarımızın (Bir DivX'i 15 dakikada encode etmeden hızlı demem bu alete [tamam abarttım]) biraraya gelip voltranı oluşturdukları zaman inanılmaz bir işlem kapasitesine sahip olduğudur.

Tamam buraya kadar hepimizin bildiği şeylerdi. Şimdi asıl konuya geliyoruz. Elimizin altında bu kadar dev bir işlem gücü yatıyorsa biz niçin bu gücü kullanmaktan mahrum kalalım? İnternetteki makinaların işlem gücünü kendi makinalarımızı oldukça kasan DivX encoding, Video ve 3D Rendering gibi işlerde kullanabilsek hoş olmazmıydı? Bu konuda aklıma ilk gelen çözüm şu oldu: İşlem gücünü paylaşan her makinada bir client yüklü olur ancak bu client normal koşullarda hiçbir işlem yapmaz. Ne yapacağı ona bu protokolü destekleyen ve yüksek işlem gücüne ihtiyaç duyan program tarafından internet üzerinden bildirilir. Örneğin a ve b diye iki değişken yollanıp al bunları topla sonrada sonucu şu makinaya bildir denilir. Client o işlemi yapıp sonucu yollar, veriyi alan makina işine devam eder...

Tabii bu şekilde ham verince birçok sorun göze çarpsada zaman içerisinde üstesinden gelinebileceğine inanıyorum... En önemli ve ilk bakışta göze batan problem bant genişliği gibi gözüküyor. Sonuçta bilgisayarımızın içindeki veriyolları bize yetmezken internet hızıyla bu iş nasıl olacak? Ama sonuçta 3 yıl önce bu kalitede filmleri paylaşmakta imkansız gözüküyordu...

Evet kulağa oldukça fantastik geliyor. Siz ne dersiniz?

Görüşler

0
cartman
http://www.distributed.net/ :)
0
sundance
Himmm. Valla cartman`in yaptigi gibi yapmiycam, zira bu ortamlarin mudavimi tongucun, seti@home gibi, idle cpu gucunu uzaydan gelen sinyalleri desifre etmek icin kullanan, ya da kansere aids`e cozum bulmak icin ayni mantikta calisan clientlardan haberi vardir saniyorum ;)

Sozkonusu programlar, kucucuk bir payload yukleyip makinaya, hesaplama tamamlandiktan sonra da sonucu yolluyorlar. O yuzden network de problem olmuyor, cunku yapilacak hesaplama, neyin hesaplanacagina gore coooooook buyuk bir sey.
0
tongucyumruk
Tabiiki haberim var... (ama açıkçası daha önce distributed.net'i ziyaret etmemiştim) Zaten bu önerdiğim sistemle Seti@Home vb... sistemlerin farkı bu noktada. Seti@Home türü sistemlerde işlediğiniz veri kilobytelar boyutunda. Öte yandan bu ufacık verinin didik didik incelenmesi gerekiyor ve bu yüzden benim emektar 200mmx'te bu iş aşağı yukarı 2-4 gün arasında sürüyor. Dahası benim düşüncem bu tip bir sistemi bilimsel araştırmalar vb. durumlar için değil ev kullanıcılarının işleri için kullanmak.

Genelde ev kullanıcıları bu kadar ufak verilerle çalışmıyorlar daha doğrusu veri üzerinde bu kadar ayrıntılı çalışmıyorlar. Ev kullanıcılarının yaptıkları genelde daha büyük veriler üzerinde daha kaba hesaplamalar yapmak. Örneğin birkaç GB boyutundaki DVD'yi DivX yapmak gibi... Eğer o veri bir Seti@Home inceliğinde işlenirse herhalde ortaya izlediğiniz en yüksek kalitedeki DivX film çıkar ama o filmi ancak (en iyi ihtimalle) torunlarınız izleyebilir. Hesaplamaların kabalığına rağmen verinin büyük miktarlarda olması işleri yavaşlatıyor. Eh bu büyük miktarlarda veriyi işlemek için de yüksek bant genişliğine ihtiyaç duyuyoruz.

Eminimki bu konuda bant genişliğinden başka daha büyük, önemli problemlerde vardır ama bir kere çalışmaya başlandıktan sonra en geç 3 yılda makul bir hal alacağını düşünüyorum.
0
izler
Işlem gücümüzü meydan okuyan sorunlar için kullandirmak iyi de ya bu sitelerin arkasindakiler islem gücümüzü bize söylemedikleri amaçlar için kullaniyorlar ise...
Görüş belirtmek için giriş yapın...

İlgili Yazılar

Türkiye Genel Bilgi Tabloları

fragile

Türkiye il -ilçe - plaka- telefon - postakodu tablolarını incelemek ve yararlanmak isteyenler için şöyle bir döküman halinde hazırladım. Dökümanın alt kısmında ise ufak bir e-devlet eleştirisi var.

Umarım beğenirsiniz.

Information Architects Sunar: Internet Web Trends Metro Haritası

FZ

O bir harita. O bir metro haritası. Hayır o bir Internet haritası. Hayır o bir yeni trendler... O bir... o bir...

İyisi mi ne olduğuna siz karar verin:

DSL İhalesi Meteksan´ın

FZ

Türkiye'de internet kullanıcı sayısı uzun bir dönemdir artmıyor. Bunun en büyük sebeplerinden birisi bilgisayarlaşma oranının değişmemesi. Ancak öte yandan mevcut bilgisayar sahipleri için de internet erişimi hem yavaşlığından dolayı verimli değil, hem de sunulan hizmetin bedeli çok yüksek. Bu gidişatı bir parça da olsun değiştirebilecek DSL bağlantısının genişletilmesine yönelik Türk Telekom tarafından açılan ihaleyi Meteksan kazandı.

DSL teknolojisi bugün kullandığımız telefon hatları üstünden çok daha hızlı internet erişimi sunabiliyor. Şu anda sadece İstanbul, Ankara, İzmir ve Çanakkale olmak üzere toplam 4 il ve 32 santralda hizmet veren sistem, Meteksan'ın geçtiğimiz hafta aldığı ihale ile çok yakında 40 il ve 168 santralda hizmete girmiş olacak.

Kaynak: Radikal

Yeni Hesap Makinamız: Google

FZ

Google bir garipliğe, bir hoşluğa daha imza attı. Artık sitenin arama kısmına çok karmaşık hesapları girip sonuçları anında alabilirsiniz. Her türlü sabit, birim dönüşümü, doğal dildeki hesaplamaları anlama, vs.

Google'ın hesap makinasının yapabildiklerine birkaç örnek:

Virüste 2001´in Top 10´u...

esse

www.sophos.com; 2001 yılının en popüler virüsünün Nimda olduğunu açıklamış. Bu adresde yeralan bilgiye göre, Sophos'un ''destek masalarına'' en çok Nimda virüsü ile ilgili şikayet gelmiş. Tüm şikayetlerin yüzde 27'si Nimda'ya ait olurken, Sircam virüsü yüzde 20 oranında şikayet almış. Söz konusu sitede, Sophos'un teknoloji danışmanı Graham Cluley'in, ''Eylül ayında ortaya çıkan Nimda hala destek masamızı en fazla meşgul eden virüslerin başını çekmekte. Nimda'nın bu kadar etkili olmasının nedeni, bilgisayarları birçok yoldan enfekte edebilmesi. Gelecek günlerde de ortaya çıkacak virüslerin Nimda gibi birçok alternatifi kullanabilecek kapasitede olacağına inanıyoruz.'' sözlerine de yer verilmiş.