Dosyalar, kaynak kodları yetmez... İşlem gücümüzüde paylaşalım

0
tongucyumruk
Bu fikir daha önce başkasının aklına geldi mi veya uygulanıyormu bilmiyorum ama dün aklımda belirdi ve bana oldukça çekici geldi doğrusu. Tabii az sonra anlatacaklarımı yapmaya benim teknik bilgim yetmeyeceğinden FM ile de paylaşmak istedim.

İnternetin ortaya çıkışından beri insanlar sürekli birşeyleri paylaşma eğilimi içindeydiler. Önceleri bu sadece düz metinden oluşan bilgiydi (kaynak kodu, şarkı sözü, bilimsel araştırma sonuçları vs). Daha sonra sıkıştırma algoritmaları gelişip bant genişlikleri arttıkça insanlar önce resimleri daha sonraları ise önce müziği ve videolarını paylaşmaya başladılar. Ve bence şimdi bunu sadece veri paylaşımının ötesine geçirmenin vakti geldi...
Distributed Computing her ne kadar isim olarak uzay yolundan çıkma gibi görünse de aslında artık çoğu ev kullanıcısının bile ucundan kıyısından örneklerini gördüğü duyduğu bir kavram. Yapılacak olan büyük hesaplamalar için internetteki birçok maiknenin boş işlemci güçlerinin kullanılması yeni bir fikir değil. Seti@Home vb. birçok proje büyük veri yığınlarının işlenmesi için internetin köşesine bucağına yayılmış evlerimizdeki PC'leri kullanıyor. Buradan ulaşacağımız en önemli sonuç teker teker pek güçlü sayılamayacak bilgisayarlarımızın (Bir DivX'i 15 dakikada encode etmeden hızlı demem bu alete [tamam abarttım]) biraraya gelip voltranı oluşturdukları zaman inanılmaz bir işlem kapasitesine sahip olduğudur.

Tamam buraya kadar hepimizin bildiği şeylerdi. Şimdi asıl konuya geliyoruz. Elimizin altında bu kadar dev bir işlem gücü yatıyorsa biz niçin bu gücü kullanmaktan mahrum kalalım? İnternetteki makinaların işlem gücünü kendi makinalarımızı oldukça kasan DivX encoding, Video ve 3D Rendering gibi işlerde kullanabilsek hoş olmazmıydı? Bu konuda aklıma ilk gelen çözüm şu oldu: İşlem gücünü paylaşan her makinada bir client yüklü olur ancak bu client normal koşullarda hiçbir işlem yapmaz. Ne yapacağı ona bu protokolü destekleyen ve yüksek işlem gücüne ihtiyaç duyan program tarafından internet üzerinden bildirilir. Örneğin a ve b diye iki değişken yollanıp al bunları topla sonrada sonucu şu makinaya bildir denilir. Client o işlemi yapıp sonucu yollar, veriyi alan makina işine devam eder...

Tabii bu şekilde ham verince birçok sorun göze çarpsada zaman içerisinde üstesinden gelinebileceğine inanıyorum... En önemli ve ilk bakışta göze batan problem bant genişliği gibi gözüküyor. Sonuçta bilgisayarımızın içindeki veriyolları bize yetmezken internet hızıyla bu iş nasıl olacak? Ama sonuçta 3 yıl önce bu kalitede filmleri paylaşmakta imkansız gözüküyordu...

Evet kulağa oldukça fantastik geliyor. Siz ne dersiniz?

Görüşler

0
cartman
http://www.distributed.net/ :)
0
sundance
Himmm. Valla cartman`in yaptigi gibi yapmiycam, zira bu ortamlarin mudavimi tongucun, seti@home gibi, idle cpu gucunu uzaydan gelen sinyalleri desifre etmek icin kullanan, ya da kansere aids`e cozum bulmak icin ayni mantikta calisan clientlardan haberi vardir saniyorum ;)

Sozkonusu programlar, kucucuk bir payload yukleyip makinaya, hesaplama tamamlandiktan sonra da sonucu yolluyorlar. O yuzden network de problem olmuyor, cunku yapilacak hesaplama, neyin hesaplanacagina gore coooooook buyuk bir sey.
0
tongucyumruk
Tabiiki haberim var... (ama açıkçası daha önce distributed.net'i ziyaret etmemiştim) Zaten bu önerdiğim sistemle Seti@Home vb... sistemlerin farkı bu noktada. Seti@Home türü sistemlerde işlediğiniz veri kilobytelar boyutunda. Öte yandan bu ufacık verinin didik didik incelenmesi gerekiyor ve bu yüzden benim emektar 200mmx'te bu iş aşağı yukarı 2-4 gün arasında sürüyor. Dahası benim düşüncem bu tip bir sistemi bilimsel araştırmalar vb. durumlar için değil ev kullanıcılarının işleri için kullanmak.

Genelde ev kullanıcıları bu kadar ufak verilerle çalışmıyorlar daha doğrusu veri üzerinde bu kadar ayrıntılı çalışmıyorlar. Ev kullanıcılarının yaptıkları genelde daha büyük veriler üzerinde daha kaba hesaplamalar yapmak. Örneğin birkaç GB boyutundaki DVD'yi DivX yapmak gibi... Eğer o veri bir Seti@Home inceliğinde işlenirse herhalde ortaya izlediğiniz en yüksek kalitedeki DivX film çıkar ama o filmi ancak (en iyi ihtimalle) torunlarınız izleyebilir. Hesaplamaların kabalığına rağmen verinin büyük miktarlarda olması işleri yavaşlatıyor. Eh bu büyük miktarlarda veriyi işlemek için de yüksek bant genişliğine ihtiyaç duyuyoruz.

Eminimki bu konuda bant genişliğinden başka daha büyük, önemli problemlerde vardır ama bir kere çalışmaya başlandıktan sonra en geç 3 yılda makul bir hal alacağını düşünüyorum.
0
izler
Işlem gücümüzü meydan okuyan sorunlar için kullandirmak iyi de ya bu sitelerin arkasindakiler islem gücümüzü bize söylemedikleri amaçlar için kullaniyorlar ise...
Görüş belirtmek için giriş yapın...

İlgili Yazılar

Apple iPhone Geldi ama

anonim

Steve Jobs MacWorld 2007 konuşmasında uzun süredir beklenilen yeni Apple ürününü açıkladı. iPod + cep telefonu + Internet iletişim cihazı = iPhone. Jobs konuşmasının sonunda iPhone için “cebinizdeki hayat!” dedi. Bu nesil Internetli telefonlar önümüzdeki iki yılda muhtemelen hemen herkesin elinde olacak. Peki ama "cetde Internet" ne anlama geliyor? Telekom gibi karanlık/kapalı bir ağ ile Internet gibi açık protokollerle çalışan bir ağın birbirine bu kadar yaklaşması ne gibi sonuçlar doğuracaktır?

$1.99'a kadar domain isimleri ama haber bu değil :)

sundance

Godaddy.com bir başka ürünle birlikte alındığı takdirde domain isimlerini $1.99'a kadar düşürmekte.

Fakat asıl haber bunun reklamını Super Bowl'da yapmak için tekrar tekrar başvurup sansür komitesi tarafından reddedilmelerinde. Reddedilen 14 reklamın bir kısmı daha çekilmeden, konsept aşamasında reddedilerek bambaşka bir rekora da imza atmış.. Saldırgan reklamcılık diye buna diyorlar herhalde.

RTUK işi bitiriyor mu?

anonim

Belki bitiriyor, belki de biraz daha bekleyecek.Belki gene rafa kaldırıp seneye bir dönem ısıtıp önümüze koyacak.En azından şimdilik bu yasaya karşı çıkanlar; Tepkiler için belki okumak belki de katılmak isterler...

Microsoft IIS pazar payını %5 arttırdı bu ay!!!

sundance

Evet yanlış duymadınız, yıllardır Internet web sunucuları üzerine aylık araştırmalarını yayınlayan www.netcraft.com bu ayki araştırmasında 31,299,592 web sunucusunu inceledi.
Sonuçlar, Microsoft IIS ile sunulan web sitelerinde bir önceki aya göre %5`lik bir artış olduğu. İşin ilginç yanı bu %5`lik kayıp daha önce Solaris üstünde hizmet veren NameZero`nun Windows 2000`e geçmesi ve Network Solutions`ın Solaris ağırlıklı Digex`den Windows ağırlıklı Interland`e geçmesi sonucu oldu.

Neyse merak edenler için dakika ve skor ;)
Apache %58.73 - Microsoft %27.88

Web 2.0 Tasarım Eğitim Dökümanları

DemensMagnet

Web 3.0 konseptleri tartışılmaya başlayadursun tüm internet halen Web 2.0'a ayak uydurabilmiş değil. Özellikle de ülkemiz. Halen Web 2.0 nedir? diye soran arkadaşlarımız buradaki makaleyi inceleyebilirler.