Dosyalar, kaynak kodları yetmez... İşlem gücümüzüde paylaşalım

0
tongucyumruk
Bu fikir daha önce başkasının aklına geldi mi veya uygulanıyormu bilmiyorum ama dün aklımda belirdi ve bana oldukça çekici geldi doğrusu. Tabii az sonra anlatacaklarımı yapmaya benim teknik bilgim yetmeyeceğinden FM ile de paylaşmak istedim.

İnternetin ortaya çıkışından beri insanlar sürekli birşeyleri paylaşma eğilimi içindeydiler. Önceleri bu sadece düz metinden oluşan bilgiydi (kaynak kodu, şarkı sözü, bilimsel araştırma sonuçları vs). Daha sonra sıkıştırma algoritmaları gelişip bant genişlikleri arttıkça insanlar önce resimleri daha sonraları ise önce müziği ve videolarını paylaşmaya başladılar. Ve bence şimdi bunu sadece veri paylaşımının ötesine geçirmenin vakti geldi...
Distributed Computing her ne kadar isim olarak uzay yolundan çıkma gibi görünse de aslında artık çoğu ev kullanıcısının bile ucundan kıyısından örneklerini gördüğü duyduğu bir kavram. Yapılacak olan büyük hesaplamalar için internetteki birçok maiknenin boş işlemci güçlerinin kullanılması yeni bir fikir değil. Seti@Home vb. birçok proje büyük veri yığınlarının işlenmesi için internetin köşesine bucağına yayılmış evlerimizdeki PC'leri kullanıyor. Buradan ulaşacağımız en önemli sonuç teker teker pek güçlü sayılamayacak bilgisayarlarımızın (Bir DivX'i 15 dakikada encode etmeden hızlı demem bu alete [tamam abarttım]) biraraya gelip voltranı oluşturdukları zaman inanılmaz bir işlem kapasitesine sahip olduğudur.

Tamam buraya kadar hepimizin bildiği şeylerdi. Şimdi asıl konuya geliyoruz. Elimizin altında bu kadar dev bir işlem gücü yatıyorsa biz niçin bu gücü kullanmaktan mahrum kalalım? İnternetteki makinaların işlem gücünü kendi makinalarımızı oldukça kasan DivX encoding, Video ve 3D Rendering gibi işlerde kullanabilsek hoş olmazmıydı? Bu konuda aklıma ilk gelen çözüm şu oldu: İşlem gücünü paylaşan her makinada bir client yüklü olur ancak bu client normal koşullarda hiçbir işlem yapmaz. Ne yapacağı ona bu protokolü destekleyen ve yüksek işlem gücüne ihtiyaç duyan program tarafından internet üzerinden bildirilir. Örneğin a ve b diye iki değişken yollanıp al bunları topla sonrada sonucu şu makinaya bildir denilir. Client o işlemi yapıp sonucu yollar, veriyi alan makina işine devam eder...

Tabii bu şekilde ham verince birçok sorun göze çarpsada zaman içerisinde üstesinden gelinebileceğine inanıyorum... En önemli ve ilk bakışta göze batan problem bant genişliği gibi gözüküyor. Sonuçta bilgisayarımızın içindeki veriyolları bize yetmezken internet hızıyla bu iş nasıl olacak? Ama sonuçta 3 yıl önce bu kalitede filmleri paylaşmakta imkansız gözüküyordu...

Evet kulağa oldukça fantastik geliyor. Siz ne dersiniz?

Görüşler

0
cartman
http://www.distributed.net/ :)
0
sundance
Himmm. Valla cartman`in yaptigi gibi yapmiycam, zira bu ortamlarin mudavimi tongucun, seti@home gibi, idle cpu gucunu uzaydan gelen sinyalleri desifre etmek icin kullanan, ya da kansere aids`e cozum bulmak icin ayni mantikta calisan clientlardan haberi vardir saniyorum ;)

Sozkonusu programlar, kucucuk bir payload yukleyip makinaya, hesaplama tamamlandiktan sonra da sonucu yolluyorlar. O yuzden network de problem olmuyor, cunku yapilacak hesaplama, neyin hesaplanacagina gore coooooook buyuk bir sey.
0
tongucyumruk
Tabiiki haberim var... (ama açıkçası daha önce distributed.net'i ziyaret etmemiştim) Zaten bu önerdiğim sistemle Seti@Home vb... sistemlerin farkı bu noktada. Seti@Home türü sistemlerde işlediğiniz veri kilobytelar boyutunda. Öte yandan bu ufacık verinin didik didik incelenmesi gerekiyor ve bu yüzden benim emektar 200mmx'te bu iş aşağı yukarı 2-4 gün arasında sürüyor. Dahası benim düşüncem bu tip bir sistemi bilimsel araştırmalar vb. durumlar için değil ev kullanıcılarının işleri için kullanmak.

Genelde ev kullanıcıları bu kadar ufak verilerle çalışmıyorlar daha doğrusu veri üzerinde bu kadar ayrıntılı çalışmıyorlar. Ev kullanıcılarının yaptıkları genelde daha büyük veriler üzerinde daha kaba hesaplamalar yapmak. Örneğin birkaç GB boyutundaki DVD'yi DivX yapmak gibi... Eğer o veri bir Seti@Home inceliğinde işlenirse herhalde ortaya izlediğiniz en yüksek kalitedeki DivX film çıkar ama o filmi ancak (en iyi ihtimalle) torunlarınız izleyebilir. Hesaplamaların kabalığına rağmen verinin büyük miktarlarda olması işleri yavaşlatıyor. Eh bu büyük miktarlarda veriyi işlemek için de yüksek bant genişliğine ihtiyaç duyuyoruz.

Eminimki bu konuda bant genişliğinden başka daha büyük, önemli problemlerde vardır ama bir kere çalışmaya başlandıktan sonra en geç 3 yılda makul bir hal alacağını düşünüyorum.
0
izler
Işlem gücümüzü meydan okuyan sorunlar için kullandirmak iyi de ya bu sitelerin arkasindakiler islem gücümüzü bize söylemedikleri amaçlar için kullaniyorlar ise...
Görüş belirtmek için giriş yapın...

İlgili Yazılar

Temporary Inbox ile Spamlardan Uzak Durun

DemensMagnet

E-Posta adresiniz 1 defa spamcıların eline düşmeye görsün, o e-posta adresinden pek fazla hayır gelmemektedir. Her ne kadar e-posta sunucuları yeni spam filtreleri geliştirseler de spamcılar boş durmayıp bu flitreleri atlatabilmek için ellerinden geleni yapıyor ve bu filtreleri atlatıyorlar.

En güzel spam koruması e-posta adresinizi spamcılardan uzak tutmaktır. İşte bu noktada Temporary Inbox oldukça yararlı bir servis sunuyor kullanıcılara.

Vikipedi İçin Daha Kaliteli ve Geniş İçerik

anonim

Vikipedi'de yapılan aramaların çoğunluğu, o konuda yeterli bilgi sahibi olmayan kişiler tarafından, o konuyu öğrenmek veya o konu hakkında bilgi sahibi olmak amacıyla yapılmaktadır. Zaten konu hakkında yeterli ve hatta gerçekten kaliteli içerik oluşturacak kadar nitelikli bilgiye sahip kişilerin, bilgi sahibi oldukları konu hakkında en azından Vikipedi içerisinde araştırma yapmak ihtiyacı hissetmeyecekleri göz önüne alınırsa, içerik geliştirme işinin, o konu hakkında daha az bilgili ve içerik geliştirme konusunda cesaretleri kırılmaya daha meyilli kişilerin eline kaldığı söylenebilir. Bu, Vikipedi ve daha genel konuşursak Wikipedia'nın en büyük problemlerinden biridir bence.

Hotmail' den 250 MB Posta Kutusu (Webmail Servisi Savaşları - Bölüm 3)

Challenger

Gmail' in ortaya 1000 MB gibi uçuk bir kapasiteyle ortaya çıkışı, Yahoo'nun posta kutusu kapasitesini 100 MB' a çıkarması derken şimdi de Hotmail 250 MB'lık posta kutusuyla karşımızda.

NTVMSNBC'de yer alan bu haberde; "Hotmail’in bellek kapasitesini artırma kararı, Google’ın 1GB’lik Gmail servisi açacağını açıklaması ve Yahoo’nun e-posta bellek kapasitesini 100 MB’ye çıkarmasının ardından geldi. MSN.com VP’si Blake Irving, şirketin pazardaki bellek kapasitesi rekabetinde geriye düşmek niyetinde olmadığını ifade etti." diyor.

Ortalık iyice kızışıyor. Birbirine düşman 3 büyük ordu silahlarını çekti. Acaba savaşa yeni bir ordu daha katılacak mı? Acaba hepsi Gmail gibi mail taraması yapıyor mu? Acaba Skynet gerçek mi? Savaşı kim kazanacak? 4. bölümde görüşmek üzere.

Açık Kaynak TV Yayında!

yakusha

Özgür yazılım arıyorsanız ya sitelerin belli bölümlerinde özgür yazılım için arama yapacaksınız veya www.osliving.com gibi İngilizce siteleri inceleyip yazılım beğeneceksiniz...

Bu konudaki eksikliği gidermek ve başta Microsoft Windows NT (Windows XP) ve ReactOs olmak üzere özel bir işletim sistemi grubuna uyumlu Özgür Yazılımları bir araya getirip kullanıma sunmak için yola çıkmış bulunan http://www.acikkaynaktv.com sitesi yayın hayatına başladı.

Web tasarımcıları için sunucu taraflı optimizasyon

mow

Bir web projesinde CSS/XHTML/Javascript ve benzeri işleri siz yapıyorsanız burada anlatılanlar tam size göre. Evet siz doğrudan ne betik dili ile yazılmış bölümlere ne de sunucu ayar dosyalarına ulaşmıyor ve onları kullanmıyor olsanızda sunucu taraflı optimizasyonda sizlerin doğrudan katkısı sandığınızın aksine çok büyük.