Google Hızlanmak İçin Bilgisayar Bilimcilerine Güveniyor

0
FZ
Stanford Üniversitesi bilgisayar bilimi araştırmacılarının çabaları meyvelerini verdiğinde Google kısa bir süre Internet´i şimdikinin 5 katı daha yüksek bir hızda indeksleyebilir hale gelecek!

Stanford´daki araştırmacılardan Sepandar Kamvar´a göre "Google´ın şu anda kullandığı PageRank algoritması korkunç veri miktarı yüzünden zorlanmaya başladı. 3 milyar sayfayı indekslemek PageRank ile günler alabiliyor. Belli bir bireye göre kişiselleştirilmiş bir indeksleme ise paralel çalışan 5000 bilgisayarın yaklaşık 5 gününü alabilir. Bu kabul edilebilir bir süre değil."
Bilimadamları şu anda BlockRank adını verdikleri bir algoritma üzerinde çalışıyorlar. Üzerinde çalışılan bi başka algoritma ise Adaptive PageRank algoritması.

Stanford araştırmacıları elde ettikleri bulguları 20 Mayıs tarihinde Budapeşte´de 12. World Wide Web konferasında sundular.

Editörün Notu: Bir kez daha algoritmaların, veriyapılarının ve teorik araştırmaların pratik dünyaya yansıyan gücü bu örnek ile dikkatleri çekiyor.

İlgili Yazılar

DSL İhalesi Meteksan´ın

FZ

Türkiye'de internet kullanıcı sayısı uzun bir dönemdir artmıyor. Bunun en büyük sebeplerinden birisi bilgisayarlaşma oranının değişmemesi. Ancak öte yandan mevcut bilgisayar sahipleri için de internet erişimi hem yavaşlığından dolayı verimli değil, hem de sunulan hizmetin bedeli çok yüksek. Bu gidişatı bir parça da olsun değiştirebilecek DSL bağlantısının genişletilmesine yönelik Türk Telekom tarafından açılan ihaleyi Meteksan kazandı.

DSL teknolojisi bugün kullandığımız telefon hatları üstünden çok daha hızlı internet erişimi sunabiliyor. Şu anda sadece İstanbul, Ankara, İzmir ve Çanakkale olmak üzere toplam 4 il ve 32 santralda hizmet veren sistem, Meteksan'ın geçtiğimiz hafta aldığı ihale ile çok yakında 40 il ve 168 santralda hizmete girmiş olacak.

Kaynak: Radikal

memecodes: başımıza memeor yağacak

FZ

Jan Philipp Lenssen, bir yerde programcı olarak çalışıyor, minik bir google blog’u tutuyor, google API’sini kullanarak kendi über arama motorunu yazıyor, sosyal deneyler yapıyor, oyunlar programlıyor, elinden çizim yapmak bile geliyor.

Şimdilerde şöyle kerata bir deneye girişmiş: rastgele kelimelerden oluşan beşbin kadar doküman üretmiş, ve bunları görülebilir yerlere linklemiş. Dolayısıyla bu dokümanlar google ve diğer arama motorları tarafından keşfedilmişler.

Şimdi içinde bu kelimelerin geçtiği bir arama yapıldığında ve aramayı yapan kişi linke tıkladığında sayfamız doğum yapıyor. Yani aranan kelimeleri de içeren yeni bir versiyonunu üretiyor. Bu yeni sayfa da linkleniyor ve dolayısıyla keşfediliyor. Bunlar olurken üzerine tıklanmamış sayfalardan biri de ölüveriyor. Jan Philipp, bir kaç yıl sonra bu sayfalarda bir takım metinlerin oluşma ihtimalini yüksek buluyor.

Haberin detayları ve devamı burada.

ShiftDelete.Net Yayında

berkin

Uzun bir süredir küçük bir arkadaş grubuyla üzerinde çalıştığımız ShiftDelete.Net bir kaç gün önce yayına girdi. Yayına girene kadarki çalışma yoğunluğumuz devam ettiği için bu vakte kadar uzun süredir üyesi olduğum FazlaMesai'yi bu gelişmeden haberdar edemedim.

Semantik Web, Doğal Dil İşleme, Veri Madenciliği ve Web 3.0: Calais Web Servisi

FZ

Herhangi bir metni (haber, makale, blog girdisi, proje planı) kendisine yollayabileceğiniz bir web servisi olsa. Bu servis yolladığınız metni inceleyip size RDF biçiminde semantik metadata bilgisi geri yollasa. Siz de bu bilgi ile mesela herhangi bir yazıya otomatik olarak 'etiket' (tag) öneren bir Wordpress plug-in'i yazsanız. Nasıl olurdu acaba?

Aradığınız şey ne kadar popüler?

FZ

Lisp'in ortalama arama miktarı 4.000.000 civarında seyrediyor. C/C++ programming ise 40.000.000'a yaklaşıyor. Perl'e gelince zaman zaman 80.000.000'a çıkmakla birlikte ortalaması 60.000.000'da seyrediyor. Java programlama dilinin aranma popülaritesi ise 200 ile 100 milyon arasında değişiyor son 1-2 haftadır.