Dr. Cem Say´la Yapay Zekâ ve Doğal Dil İşleme Üstüne

0
FZ
Boğaziçi Üniversitesi Bilgisayar Mühendisliği öğretim görevlilerinden Dr. Cem Say ile bilgisayar dünyasının popüler ve bir o kadar da zorlu konuları olan yapay zekâ, doğal dil işleme ve kuantum bilgi işlem üzerine söyleştik.

FZ: Hocam, yapay zekânın hangi alanlarında, ne kadar süredir çalışıyorsunuz?

CS: Doktora zamanından beri yapay zekâ (YZ) ile ilgileniyorum. Doktora konum, İngilizcesi "Qualitative Reasoning" olan ve "Nitel Uslamlama" olarak Türkçeye çevirebileceğimiz konu idi, ne olduğunu birazdan açıklayacağım. Demek ki, işte 1980'lerin sonlarından bu yana YZ ile ilgileniyormuşum. Ayrıca yukarıda bahsi geçen konuya ek olarak Doğal Dil İşleme özellikle Türkçe dil işleme ile bir süredir ilgileniyorum. YZ konusunda ilgilendiğim temel iki alan bu ikisi.
Nitel uslamlama bilgisayarların daha iyi denklem çözebilmeleri, hakkında eksik bilgiye sahip olduğumuz yani bütün katsayılarının değerlerini, bütün fonksiyonlarının kesin biçimlerini bilmediğimiz, hakkında sadece kabaca bilgiye sahip olduğumuz denklemleri çözmek için insanların bazen kullandığı "kısa yolları" kullanarak mevcut matematik denklem çözücü programlardan daha iyi bir şekilde çözüm yapmalarına elverecek algoritmaların geliştirilmesi ile ilgili bir şey. Ben bu konunun daha çok teorik yönleri ile ilgilendim yani bu konuda geliştirilmiş birkaç önemli yaklaşım, birkaç algoritma vardı, ben onları matematiksel olarak inceleyerek çeşitli eksikliklerini buldum. Son olarak da Levent Akın arkadaşımızla birlikte onlardan bir tanesinin epey temel yani hiçbir şekilde giderilemeyecek bir eksikliğini tespit ettik; matematiksel deyimi ile bir tür "eksiklik teoremi" ispatladık bu konu ile ilgili.

Türkçe doğal dil işleme konusuna gelince, bizim bilgisayar mühendisliği bölümünde uzunca bir süredir bu konu ile ilgili çalışmalar yapılıyor. Türkiye´de bu konudaki araştırmaları başlatan ilk bölümlerden biri. YZnin bu alanında yaptıklarımı özetlemem gerekirse: ALİ (Aritmetik Lisan İşleyici) diye bir program geliştirdim, Türkçe yazılmış aritmetik problemlerinin çözümlerini hesaplayıp cevabı da yine Türkçe olarak veren yani aritmetik açısından değil ama Türkçe dil işleme açısından bir katkı yaptık. Daha sonra bazı yüksek lisans öğrencilerimle birlikte TOY (Türkçe Okur Yazar) adını verdiğimiz, yine bilgisayarın insanla olabildiğince az kısıtlı bir Türkçe alt kümesi kullanarak doğal dilde iletişim kurabilmesine, sorular sorup sorulan soruları cevaplayabilmesine elveren bir altyapı geliştirdik. Bu doğrultuda sistemler geliştirmeye ve daha iyi performans sağlamaya yönelik çalışmalarımız devam ediyor, bunlar birbirlerini takip ederek, zincirlenerek bir bütün teşkil etmeye başladı.

Son olarak da birkaç aydan beri Türkçe ile ilgili olarak, cep telefonları üzerinden gönderilen kısa mesajlardaki sık rastlanan Türkçe hatalarını anlayıp - servis operatörleri kısa mesajları bilgisayar programları aracılığı ile işliyorlar, burada bir sorun olunca iş uzayabiliyor, hata mesajları gidiyor falan - bunları istatistiksel yöntemlerle tespti edip servis operatörünün bu hata giderme sürecini otomatik olarak ve çok daha kısa sürede çözmesine yardımcı olacak bir istatistiksel doğal işleme yaklaşımı çalışması gerçekleştiriyoruz.

FZ: Doğal Dil İşleme konusunda dünyada ve Türkiye´deki çalışmalardan kıyaslamalı olarak bahsedebilir misiniz, hangi noktadan başlandı ve nereye varıldı? Hangi başarılar elde edildi?

CS: YZnin ilk çıkışı ile birlikte insanların ilk aklına gelen doğal dili insanlar kadar iyi kullanabilen bilgisayarlar üretebilmekti. Bu hedef olacak bir şeye benziyordu ilk zamanlarda çünkü tam o dönemlerde Noam Chomsky´nin meşhur gramer kuramı piyasaya çıkmış. Yani ilk bakışta, dilin kuralları bilgisayar bir program gibi yazılıp ondan sonra da bilgisayarın bülbül gibi şakıyacağı var sayılıyor falan... fakat bu çok derin bir konu, bunun bu kadar kolay olmadığı kısa zamanda anlaşılıyor. Vaktiyle, herhalde o sırada ABD´nin hükümet kaynaklarından araştırma fonu alabilmek için en iyi yollardan biri Rusça - İngilizce otomatik çeviri yapmak olduğu için o konuda çok fazla iddialı birtakım projeler ABD hükümet kurumlarına sunuluyor, onlar fonları veriyorlar, aradan bir süre geçtikten sonra bir arpa boyu bile yol alınmadığı anlaşılıyor o yüzden özellikle makine çevirisi alanında çok olumsuz bir raporun da yayınlamasının ardından epey bir süre fonlar bir hayli azalıyor; ilk başta sanıldığı kadar bilgisayara doğal dili bütün zenginliğiyle, bütün esnekliğiyle yani gerçek hayatta insanların arasında geçen bütün cümlelerin anlaşılabileceği şekilde öğretmenin öyle de kolay bir şey olmadığı anlaşılıyor.

Yukarıdaki sebeplerden ötürü bu kesin formel yaklaşımlarım muhakkak başka yaklaşımlarla desteklenmesi gerekiyor, sözgelimi istatistiğin, örüntü tanımanın, insanlar kendi kafalarının içinde bu işi nasıl yapıyorlarsa işte o yöntemlerin devereye girmesi gerektiği anlaşılıyor. Halen de çok değişik açılardan bu konu işlenmeye devam ediyor. Şu anda senin benim gibi doğal dil kullanabilen bir bilgisayar meydanda yok. Muhakkak senin de bildiğin gibi konular kısıtlanıyor, mesela sadece hava raporları konusunda konuşan bir bilgisayar, sadece belli bir konuda denilen cümleleri anlayağı var sayılan bir bilgisayar ya da bizim ALİ örneğinde yaptığımız gibi üç beş tane belli sözdizimi örüntüsüne (syntax pattern) cümleler için doğru dürüst çalışan ötekilerde hiçbir şey yapamayan, bu şekilde dil kısıtlı programlar, mevcut durum bu.

Türkiye´deki çalışmaların tarihçesine gelince sanırım Hacettepe Üniversitesi´nde, 1970´li yıllarda bir doktora tezi yapılıyor Türkçenin morfolojisi ile ilgili ve böylece ilk temel atılıyor ama benim bir araştırmacı yaşına geldiğim zamanlarda bu iş paralel olarak Bilkent Üniversitesi´nde bilgisayarlı dilbilimden çok iyi anlayan Kemal Oflazer, Orta Doğu Teknik Üniversitesi´nde Cem Bozşahin ve bizim bölümde de Türkçenin morfolojisi ile ilgilenen Selahattin Kuru, Tunga Güngör ve Levent Akın öncülüğünde başlıyor. Yani bu ekip 1990´ların hemen başında Türkçe dil işleme konusunu canlandırdı. Şu anda da yine başka üniversitelerimizde de çalışmalar olmakla beraber esasen yine Sabancı Üniversitesi´nde çalışmalarına devam eden Kemal Oflazer, ODTÜ´de Cem Bozşahin´le çevresi ve bizde de Tunga Güngör ile ben varız bildiğim kadarı ile

FZ: YZ ve doğal dil işleme ilgili olarak bir de işin popüler kısmı var; sözgelimi Loebner yarışması ve bu yarışmada ödül kazanan ALICE, Jabberwocky gibi yazılımlar, popüler "chatbot"lar, AIML gibi diller, vs. Bunlarla ilgili görüşleriniz nedir, sizce bunlar birer YZ uygulaması olarak nitelendirilebilir mi?

CS: Bu Loebner´in yarışması düzgün bir şekilde yani hakikaten insanların dili anladığı ve hakikaten insanların dili işlediği şekilde bilgisayarları kurmaksa... Şu anda bunu nasıl yapabileceğimizi bilmiyoruz ama bunun çok zor olduğunu yani bu sıralarda, önümüzdeki birkaç yıl içinde pek yapamayacağımızı biliyoruz. Ama Loebner yarışması gibi halihazırda mevcut en iyi yanıltma performansına sahip bilgisayar programını ararsanız aslında bu Turing testinin içinde de o sorun var; kazanmak için yanıltıcı olmak gerekiyor. Yanıltıcı olmak için de, Loebner yarışmasının şimdiki halinin gösterdiği gibi, en iyi yöntem hakikaten bu işi insanlar gibi yapıp yapabildiğimiz kadarını yapalım, teorik olarak sağlam, düzgün bir programımız olsun değil, işte yani insanların yanılma ile ilgili zayıflıklarını kullanarak, onları psikolojik olarak yönlendirerek, bir tür göz boyama oyunu yapalım. Yani bizim programımızın içi hakikaten hiçbir şeye benzemesin yani "anlama" olarak nitelendirebilecek hiçbir süreç programın içinde olmasın ama büyük bir veritabanından yararlanarak girilen sorulara çok basit örüntü işleme teknikleri ile en uygun olduğunu tahmin ettğimiz cevabı doğrudan ekrana göndererek birkaç dakika için bir illüzyon ortamı yaratalım. İzleyebildiğim kadarı ile bu yarışmayı kazanan programlar bu nedenle çok eğlendirici oluyorlar ama içlerine baktığımızda bizim burada verdiğimiz "Natural Language Processing" dersinde 5 dakikadan fazla vakit harcamamızı gerektiren herhangi bir şeyle karşılaşmıyoruz. Yani bizim geliştirdiğimiz ama o yarışmaya girse çok daha düşük puan alacak ama içi tahmin ettiğimiz kadarı ile insanların beyninin içinde olup biten süreçlere çok daha benzeyen programlarımız var. YZ ve doğal dil işleme konusunda çalışan araştırmacılar bu sebeplerden ötürü bu Loebner yarışmasını pek kayda değer bir şey olarak görmüyorlar.

FZ: YZdeki iki ana yaklaşım; yani sembolik mantık ile işleme ve dağıtık paralel işleme, yapay sinir ağları, vs. arasıdaki temel farklar nelerdir? Hangisini tercih ediyorsunuz ve neden? Biraz bunlardan bahsedebilir miyiz?

CS: Bunlar arasındaki temel farklar; sembolik işlemenin, 1950´lerde bu YZ işleri yeni yeni başlarken bilinen bilgisayar mimarisine daha uygun olması yani 1950 model bir bilgisayar mühendisinin aklına ilk gelecek YZ yöntemi olması; dağıtık paralel işlemenin ise hem 1950´lerde hem de aslında şimdi yani masalarımızın üzerindeki bilgisayarların mimarisine benzemeyen ama insanların kafalarının içindeki mimariye çok benzeyen bir yöntem olması. Öyle görünüyor ki, insanlar, kafalarının içinde çok sayıda küçük, birbirlerine bağlı ve bireysel olarak zayıf işlemci bulunduruyorlar ama o işlemcilerin birlikte çalışmasından daha üst seviyede sanki tek bir işlemciymiş izlenimini veren bir - teknik terimi ile - sanal makine üretiyorlar. O yüzden, sembolik yaklaşıma göre yazılmış bir program, insanın daha yüksek diyebileceğimiz bilişsel işlevlerini, mesela satranç oynama, daha iyi karşılıyor. Öte yandan daha "alt seviyeli" işleri de mesela görüntü tanıma, bu dağıtık çok sayıda işlemcinin birbirlerine bağlanması mimarisiyle gerçekleştirilebilecek programlar karşılıyor. İnsan kafasının içinde bunun ikisi de var. Yani bir tane büyük işlemci yok ama o milyonlarca küçük işlemcinin oluşturduğu bir adet büyük sanal işlemci var ve sembolik yapay zekâ ile iyi olur dediğimiz işleri insanlar o sanal büyük işlemci ile yapıyorlar.

Bunlardan hangisini tercih ettiğime gelince, tabii ki bunlardan ikisini de tercih ederim. Eğitimimiz nedeniyle ki şu anda tüm dünyadaki bilgisayar eğitimi böyle, tek işlemcili yapıyı öğrenciler daha önce öğreniyorlar, çok işlemcili yapı ise çok daha sonra, yaşları ilerlemişken, yeniden öğrenmeleri gereken yeni bir şey olarak karşılarına çıkıyor. O yüzden çok işlemcili yapı, kafa karıştırıcı, garip bir yenilik gibi geliyor insanlara. Oysa öyle değil, anlattığım gibi ikisinin birden eğitimin ilk başından itibaren birleşik bir perspektif içinde anlatılması gerek. O zaman da hakikaten şimdiki YZ topluluğunda özellikle yaşlı araştırmacılar arasında olduğu gibi "ben sembolcüyüm, nöron tanımam" veya "nöron mu, o da ne?" gibi yapay (!) ayrımlar çıkmaz ileride.

FZ: Araştırmalarınızda, somut projelerinizde kullandığınız yazılım araçları, programlama dilleri nelerdir? Neden bunları tercih ediyorsunuz?

Kendi adıma en baştan beri YZ ile ilgili işlerde Prolog dilini kullanıyorum. Neden Prolog da başka bir şey değil? Çünkü az önce de belirttiğim ayrımın - neyse ki anlamlı olarak - sembol tarafındayım, yani hem nitel uslamlama hem de benim yaptığım doğal dil işleme problemleri sembolik yaklaşımla daha kolay bir şekilde modellenebilip çözülebiliyor. Ancak tabii doğal dil işleme, özellikle tam ölçekli doğal dil işleme için doğal dil anlama bilgisayarı yapılacaksa bunun sadece sembolik yaklaşımla olmayacağı artık yavaş yavaş anlaşılıyor ama dediğim gibi ben de resmin hepsi üzerinde çalışmadım şimdiye kadar. Şu ana kadarki çalışmalarımda da bu yüzden de Prolog kullandım ve zamanın en iyi Prolog sistemi hangisi ise onu kullandım.

Ancak bu konuşmayı okuyan arkadaşlar yanılmasınlar, ne kadar çok şey bilirlerse, alet çantalarında ne kadar çok aletleri olursa bu onlar adına o kadar iyi bir şey olur.

FZ: Biraz da teknoloji ve felsefe arakesitine bakalım. Bilgisayarlar ve bilinç... Tartışılan bir konu, ne kadar anlamlı? Bilinç sizce bizim uydurduğumuz bir yapay bir kavram mı? Sizce her şey mekanik hale getirilebilir mi? Sizce nasıl bir çerçeve içinde YZ çalışmaları sürdürülmeli?

CS: Bilinç... var olan bir şey. Yani bilincin var olmadığını söyleyemem herhalde çünkü ne kast ettiğini, birisi bilinç dendiğinde herkes üç aşağı beş yukarı anlıyor. Ama "böyle bir şey var" demek bilimadamlarına yakışan bir şey değil, bunu söyleyip orada durmak yani. Bu "şey"in, bu olgunun nasıl olduğunu, fiziksel açıklamasını bulmamız gerekiyor bütün detayıyla. Bildiğim kadarıyla binlerce yıl boyunca insanların kafasını çok kötü bir şekilde karıştıran ve doğru dürüt bir çözüm bulamadıkları bu konuya, bilgisayarlar icad edileli beri artık insan beyninin içinde bilinci oluşturan sürece ve yapıya çok benzeyen ve kendi yaptığımız fiziksel bir makina bulunduğu için çok manalı cevaplar verilebilir hale geldi. Yani, çok basitçe söylemek gerekirse ki belki de bu kadar basitçe söylememek gerekir, benim bu konuyu özetleme tarzım insan beyninin temelde bir bilgisayar olduğu ve de bizim bilinç dediğimiz, algı dediğimiz, duygu dediğimiz bilişsel süreçlerin herbiri için ne diyorsak bunların hepsinin bu bilgisayarın çalışması nedeni ile ortaya çıkan süreç ve olgular olduğu yolunda. Bunu demek için iyi nedenlerim var ama kısaca söylemek için lafı çünkü diye uzatmıyorum, istersen "çünkü"süne de geçebiliriz...

FZ: İngiliz matematikçi ve fizikçi Sir Roger Penrose´un da bilinç, YZ, vs. üzerine yazdığı kitaplarda kuantum mekaniğine, kuantum bilgi işleme, beyindeki mikrotübüllerdeki kuantum seviyesindeki etkileşimlere dair görüşler mevcuttu. Son yıllardaki kuantum bilgiişlem teorisi ışığında bu konuda neler düşünüyorsunuz?

CS: Kuantum bilgiişlem YZ ile doğrudan ilgili değil, daha çok sıralama problemi, verilen büyük bir tamsayıyı çarpanlarına ayırma gibi normalde bilgisayar mühendisliğinde YZ kapsamı altında değil başka -çok daha sıradan işler- kapsamında algılanan problemleri daha hızlı çözmek için odaklanmış bir yöntem ancak gerçekten de Penrose, insan beyninde kuantum fiziğine has yani klasik Newton fiziğine açıklanamayacak birtakım süreçlerin bilinç gibi olgulara sebep olduğunu iddia ediyor. Kitaplarından anladığım kadarı ile hem insan beyninde bu klasik fizik değil de kuantum fiziğine özgü işlerin hakikaten olup olmadığı, hem de eğer oluyorsa bunun gerçekten bilinçle ilgili bir açıklama yapmak için elzem olup olmadığı bir tartışma konusu. Tabii o incelemeyi yapmadığım için ki bildiğim kadarı ile henüz kimse de yapmadı, insan beyninde Penrose'un bahsettiği cinsten, safi kuantum yani klasik fizikle açıklanamayacak şeylerin olup olmadığını bilmiyoruz. Ama demin fazla detayına girmediğim bilinç açıklaması yani "insanların kafaları bilgisayardır, başka tüm bilişsel faaliyetleri de bu bilgisayarın çalışması sonucu ortaya çıkar" diye özetlediğimiz şimdiki yerleşik teori ekstra bir kuantum özelliğine gereksinim duymadan bu işi anlatıyor. Yani ben doğrusu şimdiki teorinin bir de kuantum fiziği öğrenmeyi gerektirmeden mevcut probleme cevap sağladığı kanaatindeyim. Ama tabii işin içinde vazgeçilmez şekilde bu kuantum özelliklerinin de olduğu ortaya kesin şekilde çıkarsa mecburen o detayları da öğrenip bunları en iyi şekilde teoriye eklemek zorunda oluruz.

FZ: Son olarak sizin eklemek istediğiniz bir şeyler var mı hocam?

CS: YZ tabii çok çekici bir isim. Araştırma yapmak isteyen gençler ya da herhangi bir nedenden ötürü hem zekâyı, hem bilinci hem de bilgisayarları daha iyi öğrenmek isteyen insanların hemen ilgisini çeken bir terim. Şu ana kadar genelde bütün mühendislik projelerinde olduğu gibi başlarda oldukça nereye gideceğimizi bilemeden, yanlışlar yaparak, hatalardan öğrenerek, işte yaklaşık bu alanın 50-55 yıllık geçmişinde çok enteresan gelişmeler oldu ve halen de olmaya devam ediyor. Yani deminden beri dediğim, "bu işin şöyle olduğu anlaşıldı", "bu iş bence böyledir" gibi eğer kesin bir şeyler söylediysem, bilimin temel prensipleri çerçevesinde onlarda da yarın aniden onun öyle olmadığını gösteren bir gelişme olabilir ama zaten dediğim gibi bu bilimin cilvesidir. Bütün bunları göz önünde bulundurduğumuzda genç araştırmacılara YZ alanını tavsiye ederim.

FZ: Röportaj için teşekkürler.

CS: Ben teşekkür ederim.

Not: Metnin orjinali http://ileriseviye.org/arasayfa.php?inode=CemSayInterview.html adresindedir.

Görüşler

0
malkocoglu
Roportaj cok guzeldi, paylastiginiz icin tesekkurler.
0
FZ
Okuyup anlama zahmetine katlandığın için ben teşekkür ederim :)

Bu arada Aaron Sloman´ın burada linkini verdiğin makalesini geçenlerde bitirdim, adam hakikaten çok sağlam argümanlar getirmiş Penrose´a karşı. Penrose´u okuduktan sonra benim gibi allak bullak olanlar için genel olarak derleyici toplayıcı bir makale, yalnız son bölümüne doğru Gödel´le bağlantılı olarak söyledikleri biraz kafa karıştırıcı. Yine de sözdizimsel çıkarımla anlamsal (semantik) `doğruluk´ arasındaki gerilime ve mevzunun o kadar da aşikar olmadığına dair dikkat çekmesi hoşuma gitti.
0
malkocoglu
Sloman'in yazisini okuduguna sevindim. Godel aciklamasi hakikaten kafa karistirici... Ben de su kadarini anlayabildim, onu da, sonsuzluklar arasindaki buyukluk farkindan bildigim bir ispatla alaka kurarak, ya da durma problemi ile (halting problem). Bir kitaba gore, durma problemi Godel'in 'genel' sonucunun bir 'ozel' hali imis... Her neyse;

Godel belli bir (finite) aksiyom listesinden mekanik olarak teoremler cikartiyor, bunu biliyoruz. Bu sistem, tutarli olacak ise, icinde P ve ~P ayni anda olamaz. Godel'in buyuk bitirici hareketi, mekanik olarak urete urete Pk = "Pk'in kaniti yoktur" teorisine isi getirmesi... zannediyorum. Eger Pk dogru ise, yanlis olacak, yanlis ise dogru. Bir absurdluk durumu olur, yani tutarsizlik. Sonuc, salt formal olarak bir sistemin tutarliligini ispatlayamayiz.

Penrose burada, Pk "dogrudur" demis, ve sezgiyle buldum diyor, cunku mesela aritmetik sistemi isler bir sistem, aksiyomlara bagli ve gayet iyi de calisiyor. Sloman'in bana mantikli gelen aciklamasi, "Tamam,
Pk'yi dogru olarak (yeni bir aksiyom) eklediniz ve yeni bir sistem yarattiniz. Fakat, Pk'in "yanlis" olarak eklendigi (paralel bir evrende) baska bir sistem de olabilir. Penrose bunu gozardi ediyor" diyor. Benim anlamadigim Penrose gibi bir matematikcinin nasil boyle bir seyi gozardi edebildigi..

Eger iki tarafin argumanlarini tartmaya calissam, super Turing makinasi, guclu YZ'nin yapilip yapilamayacagi konusunda Sloman'a dogru
meyilleniyorum. Godel teoremini hakkinda biraz belirsizim, ama Godel sonucunun da guclu YZ icin "olum fermani" demek olmazmis gibi geliyor...

Genel olarak, birer oruntu tanima/soyutlama/problem cozme aletleri olamaz miyiz? Bu iste cok iyiyiz, ve cogu zaman da oruntuleri dis dunyaya uyduruyoruz. Oyle gaiplere gitmeye gerek olmayabilir. Yani bir formel sistemle gidip gidip tikaninca, onu degistirip yeni bir sistemi dogaya gore yaratiyor filan. Bir kitaba gore Fourier Serileri, telin sallanma denkleminin bir degisiklik ile butun fonksiyonlara uygulanabileceginin farkedilmesi ile cikmis. Bunu, merakli, iyi gozlemci, ve dehset hizli bir super Turing makinasi yapamaz mi?

Bircok soru! :)

Ayrica 'sezgi' ve 'cevabin birden gelmesi' bende arka plan sureci (batch process) kavramlarini cagristiriyor. Polinom isleri o anlik (online) otekileri arka planda (offline) mi yapiyoruz? Kafamizda *nix sureclerinin donmesi ilginc olurdu.

0
FZ
Bilişsel bilimle ilgilenmeye başladığımdan beri kendim de dahil olmak üzere etrafımdaki insanları bir ``makina´´ gibi görmemek için çok büyük çaba harcıyorum! Bu çabayı harcıyorum çünkü bu bakış açısı beni rahatsız ediyor. Yine de ciddi ciddi buna kapıldığımı itiraf etmek zorundayım.

Örüntü tanıma konusunda, iş güç yaptığımız ölçekte mükemmeliz ya da belki mükemmele yakın. İstatistiksel işlem yapıp bir yerlere yakınsayan sonuçları formel ve ayrık sistemler olarak ifade etmede de üstümüze yok.

Gücümüz zayıflığımızdan geliyor. Bir bebek tam da bulanık gördüğü için ``kategori´´ oluşturabiliyor. Eğer bir anda çok net görseydi bunu yapamayacaktı. Aynı bebek bir şey üzerinde çok fazla konsantre olamadığı, tabiri caizse bir miktar salak olduğu için ``dil´´i öğreniyor. Bunlar benim iddialarım değil, son 5-10 yıldır yapay zekâda ``connectionist´´ yaklaşımlar üzerinde çalışan kişilerin iddiaları. Yapılan çalışmalara bakınca epey güçlü olduklarını görebiliyorum. Tabii bu doğuştancı yaklaşımı savunan, Chomsky taraftarları ile aradaki gerilimi hafifletmiyor ;-)

Bir yanda çok alt seviyeli yapılar yani nöronlar var, tepede, çok yukarıda bir yerde mantık işlemleri yürüten bir yapı var. Bilgisayar analojisine müsait ancak riskli bir analoji bu. Hebb boşluğunu doldurabilecek babayiği bir ``framework´´, bir model çıkacak mı? Bilmiyorum. Belki de başka kavramları da işini içine katmak gerekecek. Belki Penrose´un iddia ettiği gibi sinapsalları ve mikrotübülleri daha iyi anlamadan bunların teorik açıklamasını yapmadan elimizdeki modellerle çok fazla ilerleyemeyeceğiz bir noktaya gelip toslayacağız. Ancak prensip itibarı ile mümkün olduğunca basit bir açıklamadan yanayım, ne kadar sade olursa benim için o kadar iyi, Occam´ın Usturası hesaabı.

Kafam zaten karışıktı, daha da karıştı. ``Desperate´´ sözcüğünün anlamını düşünüyorum.

Eğer beynimim durumu evrenin durumunun bir parçası ise evreni anlamaya çalıştığımda beynim de değişecektir ve o beyin kendi değişiminin farkına varabilecek midir? Yani bir nevi parmak kendi kendine dokunabilir mi? Tao Te Ching´in ``düşünebildiğin evren gerçek evren değildir´´ iması ile konuya başlaması...

Russel ile çalışan Whitehead´in lafı: Matematiğin nihai amacı kendi kendini yok etmektir.

Dedim ya kafam karışık. Gödel´li ya da Gödel´siz :)
0
sundance
Bilişsel bilimle ilgilenmeye başladığımdan beri kendim de dahil olmak üzere etrafımdaki insanları bir ``makina´´ gibi görmemek için çok büyük çaba harcıyorum!


Bazen başaramadığını düşündüğümü söylememe izin ver :p
0
malkocoglu
Bulanik gorme ve kategorilestirme .. Vay canina. Yapay goruntu algoritmalari eniyilestirmek icin kamerayi once soyle bir bulandirmak mi gerekiyor? Belki de bu teknigi zaten kullaniyorlardir... Cok ilginc gercekten.

Insan =? Makina konusunu birileri bir gun herhalde bilimsel olarak ispatlar.. Simdilik bana, biraz delice gelse de guclu YZ ve ruhi ve mistik kavramlar yanyana durabilirmis gibi geliyor. Yani tamam, guclu YZ, problem cozme, oruntu tanima, hatta matematik yapma yeteneklerimizi alsin, alabilir. Fakat diger baska mekanizmalar hala iceride mevcut olabilir, hayatta dogru (ahlaki bakimdan) secimler yapmak icin, baska pur insani seyler icin de.. Gelecek bir zamanda (arkada fon muzigi) herkesin sanat ile ugrastigini gorur gibi oluyorum, makinalar oteki butun isler ile ugrasiyorlar.. :)

Burada tabii "ama o zaman AIInsan savasi olur mu?" sozu gundeme geliyor, eskiden hic ciddiye almadigim bir fikirdi, fakat Stephen Hawking bunu cok ciddiye aliyormus! Hatta ustune ustluk, insanlar bu savasa hazirlanmak icin YZ "parcaciklarina" kendilerini eklemlemenin (augment) yolunu bulmalidirlar demis, ve bu sekilde hep ustte kalabilmeliyiz diyerek olayi bayagi ilerletmis. Stephen Hawking ve Penrose'un calisma arkadasi olmasi ve bu kadar zit bir goruste olabilmeleri diger bir sasirtici olay olarak aklima kaldi.

Model konusuna katiliyorum. Bilgisayar bilimde bir sey ogrendiysem o da "temsil (representation)"in her seyi degistirebilecegi.. Degisik bir model ile daha ileri sonuclar elde edebiliriz belki, fiziksel yenilikler de bu fitili atesleyen bir sey olabilir. Kuantum bilgisayar duyunca ben yerine "Cok Hizli Bir Bilgisayar" kelimesini koyuyorum genelde, zannediyorum Dr. Cem Say'da boyle yapmis. Eger EXP altindaki algoritmalar cok hizli cozulebilir oluverirse, dis macunu tupunden en son kalan macunu cikartmak seklinde algoritmalardan biraz daha biraz daha hiz kazanmaya ugrasmak zorunda kalmayiz. Fakat, ote yandan bu is yollar ve arabalar hesabi bu olur mu? Ne kadar cok yol yapsan, uzeri araba ile dolar derler ya! :)







0
sundance
(Tamamen dışardan maydanoz olan birisi olarak, bir paralelliğe dikkatinizi çekmek isterim :)

Önce bulanıklaştırıp iyileştirme, grafikerlerin uzun süreden beri özellikle kirli, belirsiz faks görüntüleri üzerinde uyguladıkları bir yöntem. Önce bir blur çekersin, görüntü bulanıklaşır ama pürüzleri gider, sonra da ışık skalasını daraltırsın ki griler de siyaha tamamlansın.

Burada kullanılması ilginç ama mantıklı gayet.
0
FZ
Bulanik gorme ve kategorilestirme .. Vay canina. Yapay goruntu algoritmalari eniyilestirmek icin kamerayi once soyle bir bulandirmak mi gerekiyor? Belki de bu teknigi zaten kullaniyorlardir... Cok ilginc gercekten.



Önce bulanıklaştırıp iyileştirme, grafikerlerin uzun süreden beri özellikle kirli, belirsiz faks görüntüleri üzerinde uyguladıkları bir yöntem. Önce bir blur çekersin, görüntü bulanıklaşır ama pürüzleri gider, sonra da ışık skalasını daraltırsın ki griler de siyaha tamamlansın.

Burada kullanılması ilginç ama mantıklı gayet.


malkocoglu ve sundance farklı açılardan yaklaşarak konuyu hararetlendirmişler, kendilerine teşekkür ederim.

Bu konularla ilgili olarak en son dinlediğim kişi Dr. Robert French idi, adamın kısaca söylediği şey şu: Mini mini bebeler, mini mini beyinler bu dünyaya ilk adımlarını atarken bizim gibi net göremiyorlar. Çok bulanık görüyorlar. Daha teknik bir deyişle söylemek gerekirse ``low spatial frequency´´ verisi toplayabiliyorlar ancak. Tıpkı sundance´in bahsettiği o ``blurred´´ görüntüler gibi yani. Şimdi diyebilirsiniz ki yahu bu ne salak durumdur, o bebeler pırıl pırıl cam gibi görseler daha iyi değil mi? Değil, çünkü burada güçsüzlük gibi görünen şey güce dönüşüyor: Bu bebeler bu sayede ``kategorileri´´ kolayca edinmeye başlıyorlar. Yani bir araba ile bir kediyi, buzdolabı ile televizyonu, sandalyelerle masayı birbirinden ayırt edebilir hale geliyorlar. Birbirine benzeyen iki sandalyenin detaylarını göremiyorlar ama yemek masasının sandalyeden farklı olduğunu, arabaların kedilere benzemediğini çabucak sinir ağlarına kodlayabiliyorlar. Bu şekilde hayatlarına devam edip kabaca kategorileri oluştururken süreç içinde zaten gözleri ve beyinleri gelişiyor, oluşmuş kategoriler ayrıma ek olarak kategori içindeki ayrım da ekleniyor, artık bebeklikten küçük çocukluğa geçmiş bu canlılar bir sandalyeyi diğerinden, falanca köpeği filanca köpekten ayırt eder hale geliyorlar.

Bir başka yapay zekâcının, Dr. Elman´ın RNN yani Recurrent Neural Networks bağlamında yaptığı simülasyonlardan sonra iddia ettiği sonuç: Bebeklerin, çocukların kolayca ``dil´´, hatta aynı anda birkaç `` dil´´ öğrenebilmelerinin sebebi bu minik beyinlerin tabiri caizse SALAK olması. Evet, salak, sakar, dikkatsizler! Kısa bir anda çok ama çok az şeye yoğunlaşabiliyorlar. Çok çabuk ilgileri dağılıyor. Küçük küçük parçaları alıp kurcalayıp bir kenara atıyorlar. Sonra yine küçük küçük parçaları alıyorlar. İşte o salak gibi görünen beyinler 5-6 yıl içinde akıcı şekilde bir ya da birkaç dil konuşabiliyorlar! Dr. Elman çocukların dil edinimi simüle etmek için ilk oluşturduğu sinir ağları başarısız olunca bunların gücünü azaltıyor, araya bir miktar ``noise´´ sokuyor, kısacası ağların objektif anlamda bilgi işleme kapasitelerini düşünüyor, sonuç? Daha iyi performans! Paradoks? Belki de. Ya da değil. Elman, bebeklere bakın diyor. Durum tam da bu değil mi? Ne zaman ki o bebekler dikkatsiz ve aptal yaratıklar olmaktan çıkıp bir sürü kural öğrenip bir sürü mantıksal akıl yürütme yapabilir hale geliyorlar işte o yaştan sonra onlara: Hadi yavrucum gel sana Portekizce öğreteyim dedin mi, çocuk başlıyor hmm acaba şu kategorinin Portekizce´deki karşılığı o mu bu mu, peki ya şunu şöyle yapsam uyar mı, yoksa böyle mi yapmalıyım, hmm, peki ya biraz farklı ya da derin açıdan bakarsak? Sonuç? Yetişkinlere yabancı dil öğretmek için dünya çapında bir sektör var! Her yıl bu sektör milyarlarca dolar para çeviriyor! 1-5 yaş arası çocuklara konuşmayı ya da birkaç dili öğretmek için bir kurs duydunuz mu? Yetişkinlerin ``arama-tarama-düşünme uzayı´´ büyük, çok büyük ve istatistiksel işlem yerine mantıksal akıl yürütme gerçekleştirerek dil öğrenmeye kalktıklarında küçük çocukları güldüren hataları yapabiliyorlar bir sürü düşünmenin ardından! (çok mu ünlem kullandım!?)

Belki GO oyunundan da örnek verilebilir, aslında örüntü tanımanın ve bunu çok fazla düşünmeden, ``kendiliğinden´´ yapmanın avantajlı olduğu her alandan örnek verilebilir.

Şimdilik söyleyeceklerim bu kadar.

0
Sijiero
FZ abi ropörtaj çok güzel olmuş teşekkür edemeden geçemedim.. Ellerine sağlık...
0
sametc
vallahi FZ hocam boyle Fazlamesai icin yaptığınız girişimler cook guzel ;) tesekkurler

0
sametc
Yapay zeka ve roger penrose lafı geçmişken fikir almak isteyenler için kitap tavsiye etmeden geçemiyecem.

Bilgisayar ve Zekâ / Kralın yeni usu(cilt 1) - roger penrose -- tubitak yayınları

Görüş belirtmek için giriş yapın...

İlgili Yazılar

Free as in Freedom

FZ

Sam Williams'ın GNU hareketi ve Richard Stallman üzerine, bu yılın Mart ayında kaleme aldığı "Free as in Freedom" adlı kitabın tamamına Internet üzerinden de erişebilirsiniz.

Kitabın belki de en zevkli bölümü 1. bölüm: Bu bölümde 80'li yılların başında MIT yapay zekâ laboratuvarında çalışan Stallman'ın bozuk bir XEROX yazıcının yazılımına düzeltmek için müdahale etmek istemesi ama XEROX'un kaynak kodunu vermemesi ve sonrasında gelişen olaylar anlatılıyor. Önce efendi ve nazik bir dille derdini anlatmaya çalışan Stallman, insanların "hadi len, biz burada ticari iş yapıyoruz, yok sana kaynak kod, mod, ne halin varsa gör!" demesi üzerine ufaktan bir şok geçiriyor ve "sizin allahınız, kitabınız var mı üleennn!" diye elini kolunu sıvıyor ve GNU isimli organizasyonu kuruyor. (Ve bugün çoğumuzun bu organizasyona ait olduğunu bilmeden, Linux ve benzeri sistemler üzerinde kullandığımız bir ton çok önemli yazılım geliştirilmeye başlanıyor.)

Veri Yapıları ve Algoritmalar

polat

Veri Yapıları ve Algoritmalar (Program Tasarımı ve Yazılım Mühendisliğinde) program geliştiren, matematik ve mühendislik problemlerini bilgisayar ortamında çözmek isteyen, iş dünyasına yönelik yazılım tasarımları yapan her düzeyden programcı veya yazılımcılar için ciddi bir başvuru kitabıdır. Kitap, aynı zamanda, üniversitelerin bilişimle ilgili bölümlerinde okutulan Veri Yapıları ve Algoritmalar dersleri için bir ders kitabı özelliğindedir. Program ve yazılım tasarımında, ciddi bir bakış açısı yakalamak isteyenlere önerilir...

Matematik Dünyası Dergisi

FZ

Prof. Dr. Ali Nesin yönetiminde çıkmaya başlayan Matematik Dünyası dergisi dolu dolu içeriği ile karşınızda.

Kapak konusu "Fonksiyonlar" olarak seçilmiş son sayıda, bunun yanı sıra, aramızdan ayrılan matematikçiler, topoloji köşesi, Fibonacci sayıları, bilgisayar bilimi köşesi (robotik ve diğer ilginç konular), geometri köşesi, paradoks ve satranç köşeleri gibi birçok başka bölüm de var.

Windows Üzerinde Kaynak Kod Versiyon Kontrol Sistemi ve CVSNT.

ae

Özellikle yazılım geliştirme dünyasında iseniz, yazdığınız kodların güvenilir bir şekilde saklanması, versiyonların takip edilmesi, kodun gelişimine katkıda bulunanların ve kodun kontrol altında tutulması ihtiyacınız doğmuştur. Windows ortamında kaynak kod güvenliğini ve versiyonlama takibini yapabilmek için bir kaç alternatifiniz bulunuyor. Özellikle MS ürünleri ile yazılım gerçekleştiriyor iseniz mutlaka karşınıza çıkmış olan Visual Source Safe, açık kod dünyasından RCS , SVN, CVS ve CVSNT Yabancı terimlerin Türkçeye çevrilmesindeki bazı güçlüklerden dolayı açıklamaların başında Türkçe manasını verip metin içinde orjinal kısaltmaları kullanmaya çalışacağım.

e-bergi Mart 2009 Sayısı Yayında

ilke444

Günden güne artan okuyucu kitlesi ile tüm bilgisayar bilimi ve özgür yazılım meraklılarına hitap ettiğini kanıtlayan e-bergi, Mart 2009 sayısı ile sizlerle.