0
yorum

6 Nisan 2017 Perşembe

Yapay Zeka ve Yapay Öğrenme - I

Günlük hayatımızın her köşesinde artık bir uygulamasını bulduğumuz 'yapay zeka', bilim kurgu kitap ve filmlerinden fırlamışçasına son zamanlarda epey sesini duyurmaya başladı. Konunun ismi gereği epey iddialı olduğu kesin; fakat bahsedilenler ve elimizdeki teknoloji ne ölçüde 'zeki' bilgisayarlar iddiasını karşılıyor? Konuyu robotlar ve zeki bilgisayarlar düzleminden biraz daha pratik ve günümüz problemlerine getirilen yeni yaklaşımlar perspektifinden incelemek çok daha sağlıklı olacak. Kendim de fizik tarafında son dönemlerde uygulamalarıyla ilgilenmeye başladığım bu konu birçok alanda çığır açma eşiğinde (örnekler için tıklayınız). Yakın zamanda yayınlanmaya başlayan ve sinir-bilim konusunda güncel tartışmalara yer veren 'Nöroblog Podcast' sesli yayınının geçen haftaki bölümünde, programın yapımcıları Onur Arpat ve Taner Yılmaz ile bu konuyu tartıştık.


Yayını yukarıdaki arayüz (Soundcloud) üzerinden (şu bağlantıdan) ya da iTunes'dan abone olarak dinleyebilirsiniz. 

Programın temeli benim de kitaplarını ilgiyle okuduğum (biri Pulitzer ödüllü: 'Tüm Hastalıkların Şahı-Kanserin Biyografisi'), kendisi aynı zamanda kanser uzmanı bir doktor olan Siddhartha Mukherjee'nin New Yorker'ın 3 Nisan tarihli sayısında yayınlanan yazısı: AI vs MD: 'Yapay zeka tıp doktoruna karşı'. Programda, makalede dile getirilen konuları detaylıca tartışmaya çalıştık; klasik 'kural tabanlı sistemler'den günümüz öğrenen sistemlerine ve bunların başardıkları ve eksikliklerine işaret ettik; aynı zamanda bu sistemlerin bir takım rutin işleri yapmak konusunda biz insanların yerini alıp alamayacaklarına dair 'spekülasyon' seviyesinde olsa da birkaç şey söylemeye çalıştık.

Bu konu artık gündemin büyük bir kısmını oluşturuyor. Her geçen gün insanı en zorlu oyunlarda yenen yapay zeka sistemlerinden, sürücüsüz arabalara, Elon Musk ve diğer Silikon Vadisi tayfasının beyin-bilgisayar arayüzü üzerine 'vizyoner' girişimlerinden ses ve görsel tanımada insanları çoktan geride bırakmış sistemlere kadar birçok ilginç ve belki de haklı  olarak 'kaygılandıran' gelişmelere tanık oluyoruz. İnsanı tanımlayan ve birçoklarına göre diğer tüm canlılardan ayıran 'bilinç' ve 'zeka' özelliklerinin artık yavaş yavaş bilgisayarlar için kullanılmaya başlaması bu tartışmaları alevlendiren şeyler. Bu gibi tartışmaları sağlıklı bir şekilde yapmak, konuyu abartılardan ve 'naif iyimserlik'ten uzak bir düzlemde, yanlış anlaşılmalara neden olmayacak bir şekilde yapmak için her yönden inceleyip, açık bir şekilde ele almak büyük önem taşıyor.

Sesli yayında konuştuklarımız üzerine birkaç ekleme yapıp, podcast ortamında yalnızca konuşarak ifade edemediğimiz kavramları biraz daha detaylı bir şekilde ele almak amacım. İki bölüm olacak bu yazının ilk kısmında ele alacağım konu, şu anda elimizdeki yapay öğrenme yöntemlerinin ne olduğu ve ne olmadığı.

Yapay öğrenme (İng: machine learning) 'yapay zeka' olarak bilgisayar bilimleri-matematik-istatistiğin kesiştiği alanda kullanılan yöntemlerin bir kısmını ifade ediyor. Bu alanda temelde üç farklı yöntem var:
  • Güdümlü öğrenme (supervised learning): Elinizde bir probleme dair verileriniz var ve bu verilerin her biri etiketlenmiş. Örneğin kanser hücrelerini tanıyabilen, öğrenebilen bir sistem oluşturmak istiyorsunuz. Bu sisteme öncelikle kanser hücresi olduğu ya da olmadığı bilinen örnekleri gösterip sistemi eğitiyorsunuz. Sistem bu örnekler ve örneklerin etiketleri ('sınıfları') üzerinden istatistiksel çıkarımlarda ve genellemelerde bulunup öğreniyor. Artık sisteme etiketlenmemiş, örneğin kanserli olup olmadığı bilinmeyen bir doku örneği verdiğinizde sistem size bu dokunun kanserli olup olmadığını (belirli bir olasılık dahilinde) çıktı olarak veriyor. Günümüzdeki yapay öğrenme yöntemlerinin büyük bir çoğunluğu (Google'ın metin çevirme sisteminden, Facebook'un yüz tanıma sistemine, Whatsapp'ın yazdıklarınızı tanımlama sisteminden sürücüsüz arabalara kadar) bu yöntemle çalışıyor. 
  • Güdümsüz öğrenme (unsupervised learning): Elinizde yine verileriniz var fakat bu verilerin etiketleri yok. Yine aynı örnek üzerinden ilerleyelim; kanserli doku hücreleri görüntüleriniz var fakat bunlardan hangisinin kanserli hücre barındırdığını bilmiyorsunuz. Bir model kurup, görüntüler üzerinde bir takım özellikler belirleyerek (örneğin hücrelerin yarıçapı, renk yoğunlukları vb.) bu özellikler üzerinden verinizin birbirinden ayrılabilir belirgin kümeler oluşturup oluşturmadığına bakıyorsunuz. Oluşan kümeleri de sonrasında inceleyerek hangi durumlara karşılık geldiğine bakıp eline geçecek yeni bir veriyi bu kümelerden hangisine düşeceğine bakarak karar veriyorsunuz. Hatta daha da ileri giderek, sınıflandırma için herhangi bir özellik tanımlamadan sistemin bu örnekleri birbirinden ayıran özellikleri kendisinin bulmasını sağlıyorsunuz. Eldeki verileri tek tek etiketlemenin kolay olmadığı durumlar için kullanılan bu yöntem kendi içinde birçok teknik zorluklar barındırıyor ve bu nedenle güdümlü öğrenme gibi 'popüler' değil, fakat geleceğin en etkili öğrenme biçimlerinden biri olacağı düşünülüyor.
Solda güdümlü öğrenme (supervised learning) yönteminde çarpı ve yuvarlak ile etiketlenmiş örnek veriler üzerinden öğrenme gösterilirken, sağda aynı veriler etiketlenmeden güdümsüz öğrenme (unsupervised learning) ile elde edilen farklı gruplar gösterilmiş (Kaynak: Andrew Ng. Coursera Machine Learning dersi materyalleri)
  • Ödüllendirme ile öğrenme (reinforcement learning): İnsanın öğrenmesine en yakın yöntem olan bu yöntemde elinizde eğitmek istediğiniz belirli bir amaca sahip bir sistem var. Örneğin satranç ya da Go gibi bir oyunda karşıdaki kişiyi yenmeye çalışan ya da  bir atari oyununda en yüksek skoru almaya çalışan bir sistem. Bu sistem belirli hareketleri yaparak ilerliyor: satranç ya da Go'da yaptığı hamleler, atari oyununda ise sağ-sol-ileri-geri gibi hareketler. Sistemin şu anki durumu üzerinden yapacağı hamlelere karşılık olarak amaca yaklaşma ihtimali yüksek olanlar için sistemi ödüllendirip bu tip hareketleri teşvik edip, aksi durumda olanları yani kaybetmeye doğru götürme ihtimali yüksek olan hamleleri baskılayıp cezalandırıyorsunuz. Böyle böyle binlerce kez deneme-yanılma yapan sistem sonunda hedefe doğru hızla koşan etkili bir sistem haline geliyor. Aşağıda AlphaGo projesi ile dünya Go şampiyonlarını deviren Google'ın Deepmind şirketinin geliştirdiği, atari oyunlarını birkaç yüz deneme sonunda öğrenen sistemleri görebilirsiniz.


Google Deep Mind'ın geliştirdiği öğrenen sistem yukarıda atari oynuyor. İlk 100 oyun sonunda epey başarısız görünen sistem birkaaç yüz oyun sonunda kısa yollar bulup adeta uzmanlaşıyor. (Kaynak: Google Deepmind)

Bu üç yöntemden şu anda 'yapay zeka'ya doğru giden yolun 'güdümsüz öğrenme' ve 'ödüllendime ile öğrenme' olduğu düşünülüyor. Fakat günümüzde en çok revaçtaki yöntem ise güdümlü öğrenme; bunun iki sebebi var:
  • Birincisi ilgili-ilgisiz herkesin 'büyük veri' diye bahsettiği konu. Artık elimizdeki tüm araçlarla sürekli veri topluyoruz. Girdiğiniz bir internet sitesinde tıkladığınız bağlantılardan, kameranız açıksa gözünüzün hareketlerine; okulda, metroda, her yerde dijital kameralarla, üzerimizdeki cep telefonları ile sürekli güncellenen konum bilgilerimizden, yürüyüş hızımıza, hangi uygulamayı ne kadar kullandığımıza türlü türlü gerekli-gereksiz tüm verileri alıp bunları kaydedip saklayabiliyoruz. Çünkü artık bunu kolaylıkla ve ucuz bir şekilde yapabiliyoruz (yapabiliyor olmamız 'yapmamız' gerekliliğini doğuruyor mu? İşte bu tartışılır!). Evimizde ufacık bir alet üzerine yerleştirilen mikroçip saniyede milyonlarca veri alma kapasitesine sahip. Üstelik bunları saklayacağı hafızalar da hızla büyüyüp ucuzlaşıyor; bu veriyi bir yerden başka bir yere aktarırken artık geniş bant internet bağlantısı sayesinde hiçbir zorluk da yaşamıyoruz.
  • İkincisi bu veriyi işleme gücümüzdeki muazzam artış. Bilgisayar işlemcilerinin performanslarındaki üssel artış (ve aynı zamanda ucuzlama), birden fazla işlemi 'paralel' bir şekilde yapabilme imkanı, tipik bilgisayarların merkezi işlemci birimlerinden (CPU-Central Processing Unit) farklı olarak ilk başta oyun ve grafik amaçlı geliştirilmiş 'grafik işlemci birimleri' (GPU-Graphical Processing Unit), hatta son zamanlarda sırf yapay öğrenme uygulamaları için Google tarafından geliştirilen özelleştirilmiş işlemciler (TPU-Tensor Processing Units) bu konuda bir devrim yaratmış durumda. Öğrenilmesi gereken milyonlarca parametre barındıran yapay öğrenme uygulamalarında milyonlarca örneği ele alıp birkaç saat/gün mertebesinde sonuç üretebilen sistemler var artık elimizde. Yakın geçmişe kadar bunun hayali bile kurulamıyordu. Donanım tarafındaki bu gelişmenin yanında, yazılım tarafında da yapay öğrenme ve istatistiksel örüntü tanıma konusunda geliştirilen programları ve bunların 'açık kaynak kodlu' olarak sunulup birçok kişi tarafından özenle geliştiriliyor olması tüm bu gelişmelere büyük bir ivme kazandırdı.

Bu gelişmeler sayesinde beş yıl öncesine kadar bir kediyi, köpekten ayırmakta zorlanan sistemler şu anda kedinizin hangi açıdan çekilmiş olursa olsun bir fotoğrafından hangi tür olduğunu söyleyebiliyor. Aynı şey tıp görüntülemelerinde kanser öncesi oluşumları erkenden tanımlayabilen sistemler için de geçerli. Örnekler birçok alan için çoğaltılabilir.

Peki bu ilerlemelere ve tüm bu çığır açan uygulamalara bakarak her şeyin kusursuz olduğunu iddia edebilir miyiz? Maalesef hayır; çünkü:
  • Şu anda kullanılan yöntemler büyük ölçüde 'veriye aç' yöntemler. Etkili sonuçlar elde edebilmeniz için sistemi kurarken çok fazla veriye ihtiyacınız var, ki sonunda size etkili örüntüler oluşturup yeni bir durumlar için daha iyi 'genellemeler' yapabilsin. Birçok alanda bu ölçekte veri bulmak çoğu zaman zor ya da tıp gibi alanlarda bu veriye erişmek 'gizlilik' sebebiyle mümkün değil. Bunu aşmak için birçok çözümler uygulanıyor (Amazon'un 'Mechanical Turk' servisi ya da daha 'pratik' doktora öğrencilerini verileri etiketlemek için kullanmak gibi) fakat bu çözümler sistemlerin veriye açlığını gidermeye yetecek gibi durmuyor. Tıpkı insan gibi birkaç örnek üzerinden etkili bir şekilde öğrenen sistemlere ihtiyaç var ve bu konuda çalışmalar bu işin geleceği olarak görülüyor (bknz: one-shot learning).
  • Kullanılan yöntemler her ne kadar bilgisayar gibi tamamen 'mantık' üzerine kurulu bir sistem üzerinde gerçekleniyor olsa da bu sistemlerin programlanmasından, sistemi eğitmek için sağlanan verilerin seçimine kadar onlarca faktör kaçınılmaz bir şekilde 'yanlılık' (bias) oluşturuyor. Örneğin bankalar kredi verecekleri müşterileri artık bu yöntemlerle belirliyorlar. Algoritmalar kredi başvurusunda bulunan kişinin sosyo-ekonomik bir takım bilgilerini değerlendirip bir sonuç çıkarıyor ve şu kişiye şu kadar riskle kredi verilebilir diyor. Fakat bu sistemi eğitirken kullanılan veri içinde tüm sosyal grupların eşit bir şekilde temsil edilip edilmemesi, çıkacak sonucu doğrudan etkileyebilme gücüne sahip. Bir sonraki yazıda da göreceğimiz gibi bu sistemler çoğu zaman geriye dönük sorgulanamadığı yani bu kararı neden verdiğinin cevabını bize vermediği için bu yanlılıkları fark etmek çok çok güç. Bu özellikle toplumsal-sosyal konularda büyük tehlikeler barındırıyor. Bu konular 'teknoloji çılgınlığı' ve fütürizm modunda ilerleyen tartışmalara henüz yansımasa da günlük hayatta bizi çoktan etkilemeye başladı bile. (Konuyla ilgili şu etileyici kitabı tavsiye ederim: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy)
  • Her ne kadar tüm sorunlarımıza çare olacak gibi pazarlansa da bu yöntemler şu anda kabaca tahmin etme, sınıflandırma gibi 'alt-seviye' işler yapıyor; 'karar alma', 'muhakeme etme', 'karşılaştırma' gibi daha üst-seviye işler yapabilmeleri için mevcut yöntemlerin üzerine tamamen farklı bir perspektif gerektiği vurgulanıyor. Şu anki baş döndürücü gelişim hızına bakarak bunun için yakın gelecek için umutluyuz, fakat bahsi geçen problemlerin epey çetin problemler olduğunu göz önünden çıkarmamak gerek!
Bir sonraki yazıda sesli yayında da bahsettiğimiz 'Yapay Sinir Ağları' konusunu biraz daha detaylı ve bir örnekle açıklamayı planlıyorum.

Kaynaklar:

2
yorum

2 Nisan 2017 Pazar

Mart ayının kitapları

Kitap severler için bir tür sosyal medya ve kitap veritabanı olan Goodreads sayfasında kendi kendime bir 'meydan okuma' ile bu yıl 50 kitap okuyacağım sözünü verdim. İlk çeyrek itibariyle hedefimi tutturmuş olmanın verdiği güzel hislerle Mart ayında okuduklarımı buradan da kısaca paylaşmak istedim.



The Master Algorithm (Yazar: Pedro Domingos - Penguin Press) Yapay öğrenme ve yapay zeka çalışmaları hakkında yazılmış en kapsamlı popüler bilim kitaplarından biri The Master Algorithm. Yazarı konuyla akademik olarak uğraşan ve önde gelen araştırmacılardan biri. Kitapta farklı farklı yapay öğrenme yöntemlerini detaylıca ele alarak yazarın kendi iddia ettiği 'genel öğrenici' bir algoritma olan Master Algoritma'ya doğru giden yol anlatıyor. Henüz elimizde böyle bir genel öğrenici bir sistem olmasa da yapay öğrenme problemlerine farklı açılardan yaklaşan 'düşünce okullarının' karşılaştırmalı olarak bir arada sunumu ortaya etkileyici bir kitap çıkarmış. Konuya her ne kadar 'popüler' açıdan yaklaşıyor olsa da içeriğini sindirmenin kolay olduğunu iddia edemem; birçok algoritmanın anlatımını defalarca okumam gerekti. Kitabın sonundaki her bölümle ilgili kapsamlı referanslar ve kaynakça uzun zaman boyunca elimin altında bir başvuru kaynağı olarak kalacak. Kitap ayrıca çok yakın bir zamanda Türkçe'ye de çevrildi (Paloma Yay.).

Yürümenin Felsefesi (Yazar: Frederic Gros - Kolektif Kitap) Yürümenin Felsefesi Kolektif Kitap'ın yayın çizgisine tam yakışır, bir taraftan gerçek hayatla içli dışlı ama olayın düşünsel ve felsefi tarafından ödün vermeyen, çevirisi ile her zamanki gibi göz dolduran, tasarımı ile elinizde tuttuğunuzda dahi mutluluk hissi veren bir kitap; yürümenin felsefesine dair bir şaheser! Kendisi de bir felsefeci olan yazar Frédéric Gros, yürüme gibi günlük hayatın en temel ve kitapta da bahsettiği üzere 'tekdüze' davranışı üzerine sayfalarca fikirler, tarihsel kişilikler, bağlantılar ve renkli anekdotlar sunuyor. Tarihteki ünlü yürüyüşçülerden Nietzsche, Rousseau, Thoreau ve Emerson'ın yürümeye karşı yaklaşımlarını bizzat deneyimleri ve bunların üretme süreçlerine etkileri üzerinden etkili bir şekilde el alıyor. Doğada uzun soluluklu yürüyüşlerden, 'kafayı dağıtmak' için çıkılan yürüşlere, şehirde elleri cebinde sokaklarda başıboş dolaşmak olarak tarif edilebilecek 'fleaneur'lükten, Paris parklarında birbirine kur yapmak için eskiden çıkılan gezintilere türlü türlü açıdan bakan kısa denemeler yer alıyor kitapta. Yürümeye dair günlük hayat özelinde yada kültür tarihi bağlamında ne varsa her birini ince ince işlemiş yazar. Yürümeye övgülerle ve birbirinden güzel benzetmeler ve açıklamalarla bunca alışık olduğumuz bir hareketi yeniden önümüze koyan bu kitap, 'yerinde duramayanlar' için kesinlikle bir başucu kitabı.

Kör Baykuş (Yazar: Sadık Hidayet - Yapı Kredi Yay.) Kitap uzun zamandır okuduğum en kasvetli ve hayatı olumsuzlayan kitaptı herhalde. Klasik İran edebiyatının ustalarından gösterilen Sadık Hidayet'in en bilinen eseri Kör Baykuş. Sartre, Camus ve Sartre'da göremeyeceğiniz bir 'bunaltı' ve varoluşçu esintiler her satırında fazlasıyla hissediliyor. Yazarın hayatını göz önünüze aldığınızda böylesi bir eseri ortaya koymasının geri planını biraz daha iyi anlaşılıyor gibi geliyor. Bir dönemler 'pençesine'düştüğüm bu tarz kitapları okuduğum dönemleri hatırlatması anlamında ancak sevebildiğim bir okuma oldu, daha fazlası değil...
Benim Periyodik Tablom (Yazar: Oliver Sacks - Yapı Kredi Yay.) Kişiliği etkileyen uç psikolojik sorunlar üzerine hayatını vakfetmiş ve tüm bunları birbirinden güzel anlatılar şeklinde ömrü boyunca yayınlamış en sevdiğim yazarlardan biridir Oliver Sacks. Ele aldığı konuları çoğu zaman ağzım açık okur, dünya üzerinden insan deneyiminin sonsuz çeşitlilikte olduğunu düşünür dururum. Oliver Sacks'ın bu yazar kimliğinin yanında aynı zamanda karakterini en çok belirleyen yönlerinden biri de doğa bilimleri, özellikle kimya sevgisidir. Çocukluğundan itibaren kimya ve özellikle elementlerle kurduğu bağını, yine Yapı Kredi'den yayınlanmış 'Tungsten Dayı' eserinde ele almış, bitmez bilmez merakını bir eğrelti otu meraklısı amatör grubuyla Meksika'da çıktığı keşif gezisinin notlarını Oaxaca Günlüğü kitabında paylaşmıştı. Geçen yıl kanserden yitirdiğimiz bu müthiş insanın ölümünden önce kaleme aldığı son üç yazısını içeriyor 'Benim Periyodik Tablom'. Her biri birbirinden değerli, hayata, insanlara, bilime bir veda yazısı niteliğinde üç yazı. Oliver Sacks'ın okurlarına bıraktığı son hazine.

Prizma ve Sarkaç (Yazar: Peter P. Crease - Boğaziçi Üniversitesi Yayınları): Bilimde 'güzel' kavramını soyut ve teorik olanda değil de, elle tutulur ve deneysel olanda arayan sıradışı bir kitap Prizma ve Sarkaç. Bilim tarihinde, özellikle fizik alanında öne çıkan deneyleri içindeki karakterleri ile birlikte tarihsel olarak ele alan kitapta ayrıca ara bölümlerde çeşitli konularda bilim felsefesi tartışmalarına da kısa makaleler şeklinde yer verilmiş. Kitapta yer alan deneylerin her biri 'güzel' kavramı üzerinden değerlendirilip 'bir deneyi güzel yapan şey nedir?' sorusunun cevabı aranıyor. Kitaptan esinlenerek geçtiğimiz günlerde şu yazıyı da yazmıştım, ilginizi çekebilir: Bilimde 'güzellik' üzerine: Sarkaç ve Bilardo Topları
Something Incredibly Wonderful Happens: Frank Oppenheimer and his Astonishing Exploratorium (Yazar: K.C. Cole - Unv. Chicago Press) Bilimin topluma ulaştırılması konusunda günümüzde önemli bir rol oynayan 'bilim müzesi' konseptini ilk olarak hayata geçirenlerden biri, aynı zamanda Manhattan Atom Bombası projesinde ünlü kardeşi Robert Oppenheimer ile birlikte yer almış Frank Oppenheimer'ın detaylı bir portresi bu kitap. Kitabın ilk bölümünde Frank Oppenheimer'ın atom bombası ve fizikle ilişkisi detaylı olarak ele alınırken, ikinci bölümden itibaren San Francisco'da günümüzde dahi bilim müzeleri konusunda en önde yer alan ve devasa bir etkiye sahip Exploratarium'un kurulma aşamasından etkili bir müze haline gelişinin öyküsü yer alıyor. Yol boyunca Frank'ın bilime, bilmeye ve özellikle öğrenmeye dair tamamen kurcalama ve keşfetme üzerinden yaklaşımı birçok anekdotla anlatılıyor. Kitabın yazarı Frank'ın yanında uzun yıllar boyunca yer almış, Exploratarium projesinin de içerisinde bulunmuş bir kişi ve aktardıkları doğrudan birinci ağızdan. Kitap, bilimin etkili bir şekilde aktarılması ve çocuklardan yetişkinlere kadar günümüzde herkesin çoktan yitirdiği 'merak etme yeteneğini' tekrar kazandırılması anlamında birbirinden etkili yollar sunuyor.
3
yorum

23 Mart 2017 Perşembe

Matematiğin Nobeli Abel Ödülü 'dalgacıklar'a verildi!

Matematik bilimsel uğraşılar arasında en mütavazi olanlarından bana kalırsa. Diğer alanlarda türlü türlü ödüller, bunların başında Nobel Ödülü geliyor, verilmeden haftalar öncesinde tahminler, iddialar, tartışmalar; sonrasında ise daha hararetli tartışmalar, çoğu zaman hayal kırıklıkları ve bir süre boyunca yüzlerini ezberleyeceğimiz ödül sahipleri olur hep... Bilimin ve bilim insanlarının tanıtılması ve gündemde olması açısından bu belki iyi bir şey ama gel görün ki matematikçilerin ödüllerinde bu tip tantanalara rastlamak ne mümkün! Örneğin dün 21 Mart'ta verilen ve 'Matematiğin Nobel'i olarak anılan Abel Ödülü'ne dair bilim medyası dışında hemen hemen hiç haber görmedim. Bu durumun Alfred Nobel'in matematikçilerle 'özel' problemleri nedeniyle, matematikçilerin kendilerini dışlanmış hissetmeleriyle de hiç alakası olmadığını düşünüyorum! Üstelik 'dalgacık dönüşümü' (İng: wavelet transform) konusundaki katkıları nedeniyle Fransa'da École Normale Supérieure üyesi matematikçi Yves Mayer'e verilen ödül, modern günlük hayatımızın her köşesinde bir katkısı olan bu kavramı ön plana çıkarmak için en iyi fırsatı oluşturuyor!

Yves Mayer'i keşfinde rol oynadığı 'dalgacıklar' ile resmeden hoş bir görsel (Telif Hakkı: Olena Shmahalo/Quanta Magazine)

Etrafımızı sarmış dijital araçların her biri şu anda dış dünyadaki 'analog' bilgiyi (sinyali), yani zaman içinde sürekli, bölümlenmemiş bilgiyi 0'lar ve 1'lerle kodluyor (dijital sinyal). Örneğin telefonunuzda ses kaydettiğinizde, bir fotoğraf çekip kaydettiğinizde arka tarafta olan şey bu. Bununla birlikte iki problem karşımıza çıkıyor; bu bilgiyi bilgisayarımızın hafızasında nasıl saklayacağımız ve bu bilgiden tekrar aynı sinyali (hapörlenizdeki ses, ekrandaki görüntü) nasıl üretebileceğiz? Buna güzel bir örnek dinlediğiniz bir konserdeki şarkıyı (anolog sinyal) bir kağıt üzerindeki notalar (dijital sinyal) şeklinde ifade edebiliriz. Saatlerce süren bir konseri  birkaç sayfa içine sığdırabiliriz. Aynı şekilde başka bir müzisyen de bu notalara bakarak müziği tekrar oluşturabilir. Bilimde bu problemlerin çözümüne kafa yoran 'sinyal işleme' adında devasa bir alan var. Dijital dünyada veri analizinin artık bir nevi dili olan bu alanın en temel kavramları da elinizdeki sinyali dönüştürüp daha farklı bir şekilde ifade etmeye yarayan 'dönüşümler'.

Bu dönüşümlerin en ünlüleri belki de Fourier dönüşümleri. Elinizde herhangi bir forma sahip herhangi bir sinyali, Fourier fonksiyonları diye bildiğimiz trigonometrik sinüs ve cosinüs fonksiyonlarının toplamı şeklinde yazabiliyoruz. Trigonometrik fonksiyonlar belirli bir zaman aralığında kendini tekrar eden, periyodik fonksiyonlar. Bir sinyali bu fonksiyonlar cinsinden yazdığımızda o sinyalin içerisinde kendini tekrar eden parçaları çekip çıkarmış oluyoruz aslında; böylece bu parçaların hangilerin domine olduğunu anlayabiliyoruz. Bahsi geçen fonksiyonların sinyale katkılarını belirten katsayıları bir kenara yazıp, sonrasında bu sinyali (büyük bir doğrulukla) tekrar oluşturabiliyoruz. Aynı zamanda bütün bir sinyali tutmaktansa sadece bu katsayıları tutmak çok daha pratik oluyor.

Fourier analizini aşağıdaki animasyon çok güzel anlatıyor. Elimizde $f$ fonksiyonu olsun ve bunun içerisindeki periyodik komponentleri bulmaya çalışıyor olalım. Fourier analizi uyguladığımızda bize bize bu sinyali oluşturmak için gerekli sinus/cosinus fonksiyonlarının hangi frekansta ve ne kadar 'kuvvette' olmaları gerektiğini söylüyor. Animasyonun sonunda gösterilen $\hat{f}$ grafiği sinyalin dönüştürülmüş halini gösteriyor.

Kaynak: Wikipedia

Fourier analizi her sinyal için işe yarıyor derken birkaç noktayı göz ardı ettik; öncelikle bu analiz sinyalinizin istatistiksel olarak çok da değişmediği varsayımına dayanır; yani sinyalinizde ani sıçramalar, inişler ve çıkışlar birer problem oluşturur. Belki müzik için bu bir problem değil ama örneğin bir deprem sinyali için bu başlı başına sorun oluşturur çünkü bu durumlarda çoğu zaman ani ve şiddetli bir değişim söz konusudur. İki boyutlu bir sinyalde örneğin bir resimde (her x ve y koordinatı için bir renk değeri gibi düşünebilirsiniz) kendini tekrar eden ve yumuşak geçişlerin olduğu gökyüzü veya deniz manzaralarının yanında keskin köşelere sahip birçok yapı da bulunur. İşte bu noktalarda Fourier analizi çok da etkili çözümler ortaya koyamıyor.

Buna alternatif olarak geliştirilen yöntem ise 'dalgacık dönüşümü' yani 'wavelet transform'. Bu yaklaşım Fourier fonksiyonlarındaki gibi tamamen periyodik fonksiyonlar yerine belirli bir bölgede 'lokalize' olmuş fonksiyonları temel alıyor. Bu sayede yukarıda bahsettiğim 'keskin değişim' problemlerine etkili bir çözüm getirilmiş oluyor. Sinyalleri parçalara ayırmak için kullanılan fonksiyonlar tam bir dalga değil de 'dalga parçaları' olarak görülmelerinden ötürü 'dalgacık' (wavelet) olarak adlandırılmışlar. Dalgacık fonksiyonları tıpkı Fourier fonksiyonları gibi tüm sinyalleri ifade etmek için kullanılabiliyorlar ve bu fonksiyonlarla bir dönüşüm yapılıp hangi dalgacıkların sinyal içinde domine olduğu anllaşıldığında sinyali bu bilgilerden kolay bir şekilde tekrar oluşturmak mümkün. Bu yöntem sayesinde örneğin görüntü gibi sinyalleri çok daha etkili bir şekilde dönüştürüp, sıkıştırmak, depolamak ve tekrar oluşturmak mümkün oldu.


Görselin en üstündeki orijinal sinyalin solda Fourier dönüşümü ile, sağda ise dalgacık dönüşümü ile oluşturulması karşılaştırıldığında dalgacık dönüşümünü ani değişimi en altta çok daha iyi oluşturabildiği görülüyor. Aralardaki fonksiyonlar ise en alttaki sinyali oluşturmak için üst üste toplanan fonksiyonları gösteriyor.


1980'lerde Fransız bir mühendis Jean Morlet'nin ortaya attığı bu fonksiyonları geliştirip bütünsel bir çerçeveye sokan Yves Meyer'e 2017 Abel Ödülü işte bu dalgacık teorisine yaptığı önemli katkılardan ötürü verildi.

CERN'de geçirdiğim zamanda tezimde son iki ayım doğrudan bu konularla uğraşarak geçtiği için konuya ayrı bir hassasiyetim olduğunu belirtmeliyim. Neredeyse iki aydır bir sinyalin içerisinde periyodik komponentleri (chameleon parçacığı sinyalini) çıkarmak üzerine çalışıyorum. Fakat sadece bu neden 'sinyal işleme' olarak bilinen bu devasa alandaki bu tip gelişmeleri öne çıkartmak için yeterli sebep olmamalı elbette. Çünkü telefondan, bilgisayara, kameradan müzik çalara artık elimizin altındaki her şey bu insanların çabaları ve bu teorilerin sonuçları sayesinde tıkır tıkır çalışıyorlar. Günümüzde 'verili' olarak kabul ettiğimiz bu gelişmelerin altında çok ciddi matematiksel temeller olduğunu çoğu zaman aklımıza bile getirmiyoruz. Bu tip ödüller bunu öne çıkarıp hatırlatmak için varlar aslında. Her ne kadar matematikçiler 'düşük profilli' takılmaya çalışsalar da bu katkıların farkında olup gün yüzüne çıkarmanın görevimiz olduğunu düşünüyorum!
  • Konuyla ilgili Abel Prize sayfasının ulaşılabilir bir dille hazırladığı dokumanlar için tıklayınız.
0
yorum

21 Mart 2017 Salı

Doğayı (Bilgisayarla) Modellemek Üzerine

Fizikle ilk tanışmam, zamanında mühendislik okurken yakın bir arkadaşımın bir vesileyle 'Schrodinger'in Kedisinin Peşinde' adında bir kitabı elime tutuşturmasıyla başlamıştı. Kuantum fiziği üzerine yazılmış hala en iyi popüler kitaplardan biri olan bu kitapta ilk defa 'modern fizik' konseptleri ile karşılaşmış; çift yarık deneyinde elektronların tıpkı ışık gibi davrandığını, belirsizlik ilkesinin doğanın en temelinde yatan prensiplerden biri olduğunu öğrendiğimde ufkum açılmıştı. Bir taraftan da günlük hayatta deneyimlediğim 'gerçeklik'ten oldukça uzak görünen fakat doğanın dili olduğu iddiasıyla 'fizik' olarak nitelendirilen bu alan gittikçe daha da ilgimi çekmeye başlamıştı. Sonrasında derinlere daldıkça karşılaştığım onlarca 'garipliklerle' aslında 'gerçekliğe' dair ne kadar az şey bildiğimi düşünüp, aklımdaki soruları cevaplamak adına yola çıktım. Hedefim oldukça iddialıydı: 'Gerçeklik' perdesini aralayıp onu saf bir şekilde görüp, anlayabilmek... Ne kadar naif olduğumu yıllar sonra ancak anladım.

Derin felsefi analizler yapmak niyetim yok aslında; lafı dolandırmadan sonuca gelirsem; aslında fizik uğraşı ile en baştaki hedefim gereği 'gerçekliği' saf haliyle anlamanın mümkün olmadığını, buna ancak elimizdeki modeller vesilesiyle yakınsayabileceğimizin gittikçe farkına varmaya başladım. Burada anahtar kelime 'model'; yani doğayı kavramak konusunda kullandığımız temel araçlar. Fizikte temel olarak yaaptığımız karşımızdaki olabildiğine karmaşık fenomeni ilk başta tüm karmaşıklığından arındırarak 'oyuncak bir model' ile temsil edip, adım adım modelin karmaşıklık seviyesini arttırarak gözlemler ve deneylerle kontrol edip, alınan geri besleme ile 'işe yarayan' - gözlemleri en iyi açıklayan mümkünse en basit açıklamayı ortaya çıkarmak. Örneğin lise fiziğinde sabah akşam uğraştığımız 'sürtünmesi ihmal edilmiş' sistemler ya da nokta parçacık olarak düşündüğümüz kütleler bu tarz modellerden; belirli ölçeğe kadar elinizdeki fenomenleri açıklıyabiliyorlar. Örneğin gezegenleri boyutsuz nokta parçacık olarak düşündüğünüzde 'gel-git' kuvvetlerini açıklayamıyorsunuz fakat Güneş Sistemi'ndeki yörüngeleri belirli bir hassasiyete kadar hesaplarken zaten buna ihtiyaç duymuyorsunuz. Fakat bunların her birini kattığınız takdirde elinizdeki hesaplama gücü ile altından kalkamayacağınız bir karmaşa ile karşılaşıyorsunuz; bu da 'işe yaramayan' bir şey. Ünlü bir laf vardır: 'Tüm modeller yanlıştır, bazıları işe yarar.' Buradaki 'yanlış' olma hali, iddialı bir şekilde 'gerçekliği' tam anlamıyla ifade ediyor olmasına istinaden.

Fizikte modelleri analitik olarak, genelde diferansiyel denklemlerle kurup çözümlerini arayabilirsiniz, ki yüzlerce yıllık birikim bu konuda müthiş ilerlemeler sağlamımıza yaradı. Fakat bu haliyle bile çok temel denklemlere sahip, karmaşıklık olarak oldukça 'basit' modellerin ötesine geçmek çok zor çünkü modelimizin içine ele aldığımız sistemin komponentlerinin etkileşimleri girdiğinde işler çoğu zaman çığırından çıkabiliyor, sonucun 'kaos'a çıkması işten bile değil. Aynı zamanda bir sistemin davranışını analitik olarak incelemeden önce bir kestirim yapabilmemizi sağlayacak bir yöntem olsaydı da denklemlerle boğuşmaya başlamadan önce probleme dair 'sezgisel' bir fikrimiz olsaydı diyor insan. İşte bu noktada bilgisayarlar devreye giriyor.

Elimizde sistemin işleyişine dair temel kuralları birkaç satır kodla bilgisayara verip, saniyede milyarlarca işlem yapabilen bu olağanüstü makinaların ortaya çıkaracağı sonuçlara artık kolayca erişebiliyoruz. 'Kullanıcı-dostu' programlama dillerinin gittikçe geliştiği, bilgisayarların hesap yapma gücünün astronomik seviyelere çıktığı şu dönemde bunu en temel uygulamalarda kullanmamak bile ayıp! Tabii bu durumun eğitim gibi hala 19. yy pratiklerini takip eden bir alanda kolay yankı bulacağını düşünmek ayrı bir naiflik olurdu, fakat son zamanlarda dönüşüm hızıyla paralel bilim eğitiminde bir çok 'çatlak ses' bu duruma işaret etmeye başladığı söylenebilir.

Feynman'ın ölümünden sonra odasındaki karatahtada karalanmış olarak bulunan şu ünlü sözü vardır hani: 'Yaratamadığım şeyi anlayamam' (İngilizcesi: 'What I can not create, I do not understand.'); bunu benzer şekilde son zamanlarda kendimde gözlediğim 'kodlayamadığım şeyi yeteri kadar anlamadığım' gerçeği bu konuya dikkat çekme isteği uyandırdırdı. Son zamanlarda gözüme çarpan birkaç ders ve kitaba işaret etmek niyetim.

Feynman'ın ölümünden önce çalıştığı karatahtasından geriye kalanlar. Sol üst köşede: 'What I cannot create, I do not understand' (Kaynak: Caltech Archives)

'Nature of Code' şu ana kadar enerjisi bakımından kimseyle karşılaştıramayacağım 'Daniel Shifman' adlı bir akademisyen/programcının geliştirdiği, 'ulaşılabilir' bir arayüz üzerinden doğadan esinlenilmiş problemleri modellemek üzerine harika bir kitap. JavaScript temelli p5.js adlı bir platform üzerinde geliştirdiği programlarla birkaç satırda 'rastgele yürüyüş' simulasyonlarından, fraktal yapı modelleri, kuşlar ve balıkların 'kümelenme' davranışlarına kadar birbirinden ilginç problemleri ele alıyor [Örnekler için şu sayfada 'Simulate' başlığı altındakilere bakmanızı öneririm: https://p5js.org/examples/ ]. p5.js aslında görsel tasarımcıları ve sanatçıları programlama ile tanıştırmak için oluşturulmuş, grafik arayüze çok kolay ulaşılmasını sağlayan bir çok fonksiyon barındıran bir proje; tipik c++, Python gibi dillerdeki karmaşıklıktan uzak, ekranda objelerin oynadığı, dinamik simulasyonar için birebir. Shiffman aynı zamanda kitaptaki konuların büyük bir çoğunluğunu işlediği bir de online ders veriyor: Nature of Code - Kadenze. Ayrıca Youtube Coding Train kanalında her hafta p5.js ile ilgili bir problemi ele aldığı harika bir video yayınlıyor.

p5.js ile yapılmış bir 'düşen parçacıklar' simulasyonu (detaylar ve kod için tıklayınız)

Yine bunun paralelinde, bu sefer biyoloji üzerinden modellemeye yaklaşan iki harika kitap var. İlki 'Nature in Code' adında. Biyolojideki en temel birimler olan genlerden yola çıkıp, çok basit modellerle çoğalma, mutasyon, rekabet ve en nihayetinde 'doğal seçilim' mekanizmalarını yine JavaScript ile modelleyen başka güzel bir kitap. Kitabın online ders platformu edX'de aktif bir de dersi var [Nature in Code: Biology in Javascript], adım adım sıfırdan programlamanın temelleriyle birlikte konuyu işliyor. Özellikle kodların herbirini basit bir text editörü ile yazıp gidip bir internet tarayıcısında çalıştırması çok hoşuma gitti. Özellikle programlamaya yeni başlayacak bir kişi için bundan daha 'basit' bir başlangıç olamaz herhalde...

Son olarak yine biyoloji temelli bir 'modellemeye giriş' kitabından bahsedeceğim. Fakat öncesinde aynı kişinin [Philip Nelson]'ın modellemenin altındaki programlama becerileri üzerine yazdığı genel bir kitap var, onunla başlayalım: "A Student’s Guide to Python for Physical Modeling". Yaklaşık 150 sayfalık kitapta adım adım temel Python kullanımı ve özellikle modellemede kullanılan yönleri öz bir şekilde anlatılıyor, üzerine uygulama bile yapıyor. Asıl bahsedeceğim kitabı ise 'Physical Models of Biological Systems'. Biyolojik sistemleri ele alan bu şahane kitap pedagojik yaklaşımı, konuyu anlatış tarzı, adım adım her noktayı açık bir şekilde gösteriyor oluşu ile karşılaştığım en iyi ders kitaplarından biri sanırım. Temel konular biyoloji ile ilişkili olsa da modellemenin altında yatan olasılık, istatistik ve hesaplama gibi birçok temel konuda oldukça aydınlatıcı bölümlere sahip. Kitabın hedef kitlesi temel fizik ve matematik derslerini vermiş meraklı 2.-3. bilim öğrencileri.

Geçmiş senelerde lisans sonunda yazdığım 'Yeni Mezundan Fizik Lisans Tavsiyeleri' yazı dizisinde her yıl özellikle vurgulamaya çalışmıştım programlama ve bilgisayarla hesaplama yapma becerisinin bir fizikçi (ve genel olarak bilim insanı) adayı için ne kadar önemli olduğunu. Bu konuda becerilerinizi tipik yazılımcı gözüyle yaklaşık sabah akşam (bana kalırsa) hiç de ilginç olmayan 'programlama' problemleri yerine doğadan esinlenilmiş 'gerçek' problemler üzerine kafa yorarak çok daha etkili bir şekilde geliştirebilirsiniz. Bunlar için öğrenilen dil ilk etapta çok da önemli değil aslında, Python, JavaScript yada başka biri; önemli olan altta yatan kavramları ve yöntemleri özümseyip, bir fiziksel problemi modelleme becerisi kazanabilmek. Bunun sonrasında bilgisayarın sağladığı olanaklar ve hayal gücünüzle yapabilecekleriniz tek kelimeyle 'sınırsız'!

NOT: Modellemeye girişten bahsettim ama bu konuda hızlı başlayıp aynı hızla devam etmek için temel programlama becerileri konusunda şu iki siteyi tavsiye edebilirim. Hackerank ve Hackerearth. Bu siteler 'hacking skills' diyebileceğimiz, programlama konusunda yeterli ve etkili bir seviyeye hızlı bir şekilde gelmeniz için epey yardımcı olacaktır. Bu sitelerde ilk başta giriş 'tutorial'ları ile egzersizlerle başlayıp, düzenli olarak problem çözüp ardından periyodik olarak açılan yarışmalara katılıp kodlama becerilerinizi ilerletebilirsiniz. Bu siteler platformdan bağımsız bir şekilde birçok dilde destek veriyorlar. 
0
yorum

15 Mart 2017 Çarşamba

Kompleks Sistemler ve Doğada Etkileşimler

Doğada gözlediğimiz değişimlerin altındaki neden-sonuç ilişkilerini kestirmek ya da ortaya çıkarmak hiç de kolay bir iş değil. Birbiriyle etkileşen yüzlerce, binlerce üyeden oluşan bu sistemler dışarıdan bakıldığında sanki uzun zamandır, şu anda olduğu gibi, aldatıcı bir 'düzen' ve 'uyum' içerisinde yaşayıp gidiyormuş izlenimi verir. Bize yüzlerce yıldır akıyormuş gibi görünen dereler, her baharda yeşillenen ağaçlar, etrafı saran börtü böcek sanki çok uzun zamandır değişmeden süre geliyormuş gibi görünür. Değişimler çoğu zaman bizim gözlem ölçeğimizde olmadığı ve bu değişimin altındaki mekanizmaların bizim için 'kapalı kutu' olması sebebiyle biz ancak sonuçlarıyla yüzleşiriz.  Geçmişte dinamik sistemler ve ekoloji üzerine bir proje üzerinde çalışırken bu "denge" durumuna yapılan müdahalelerin sistemin doğasını bazen ne kadar dramatik ölçüde değiştirebildiklerine de şahit olmuştum. [Bahsi geçen projeye şu yazıda kısaca değinmiştim: John Nash’in Ardından Evrimsel Oyun Kuramı]

Geçenlerde karşılaştığım bir video bu konular üzerine tekrar düşünmemi sağladı. Amerika'da Yellowstone Doğa Parkı'na çok uzun süreden sonra tekrar salınan kurt popülasyonunun tüm ekosistemi nasıl dönüştürdüğünü, hatta sonunda bahsedildiği üzere canlı ekosistemin ötesinde nehirlerin dahi yapısının değişmesine nasıl yol açtığını anlatıyor.


Videoda bahsedilen tüm bu sonuçlar birbiriyle matematik olarak ifade etmemiz gerektiğinde non-linear - doğrusal olmayan etkileşimlerin birer yansımaları. Doğrusal olmayandan kastımız, sistemin bir üyesinin değişimi diğeri ile kurduğu etkileşime bağlı olması, matematiksel ifade ettiğimizde değişkenlerin çarpımlarını ve daha karmaşık fonksiyonlarını içermeleri. Bu tip doğrusal olmayan etkileşimleri ve bunların nitelik ve büyüklüklerini, etkileşen çok fazla üyeye sahip bir ortada açığa çıkarmak epey zor; bu tip sistemler 'kompleks sistemler' (complex systems) olarak adlandırılıyorlar. Bu sistemleri tek tek üyeler bazında incelemek çok güç olduğundan popülasyonlar ölçeğinde, hatta bazen o da mümkün olmadığında sadece yapısal olarak inceleyebiliyorsunuz. Yapısaldan kastım örneğin popülasyonun zamanla nasıl evrileceğini bilemiyor olsanız da dönüp dolaşıp bir yerde sabitlenip sabitlenmeyeceğini, dışarıdan bir etkiye maruz kaldığında ne kadar kırılgan olup olmadığına dair birçok şey söyleyebiliyorsunuz. Karmaşık sistemler çalışmalarında modelleme aşamasında kimi zaman diferansiyel denklemler, kimi zaman da tamamen olasılık temelli, ağ teorisi (network theory) yöntemleri kullanılıyor.


xkcd'de yayınlanan yukarıdaki karikatürde ilk karede "yirmi yıldır 'faz uzaylarını', 'doğrusal olmayan denklemleri' ve kaos teorisindeki 'garip çeker'leri çalıştığını son karede de fakat tüm bu diyagramlarda dinazorların kaçtıklarını göremediğini söylüyor. Karikatür Jurassic Park'ta dinazorların karşını 'kaos teorisi' ile modelleyebileceğini iddia eden Dr. Ian Malcolm'a atıfta bulunuyor. Üstteki video ile gösterilmek istenen şey de bu denklemlerdeki davranışı görmenin mümkün olduğu! (Kaynak: explainxkcd)

Bu tip problemler fizikte uğraştığımız 'basitleştirilmiş', 'doğrusal' problemlerden epey farklılar ve barındırdıkları karmaşıklık ve bundan doğan müthiş ilginç sonuçlar doğaya dair çok daha genel bir bakış açısı geliştirmek konusunda epey faydalı ve kafa açıcı oluyorlar. Hiç olmazsa, bir doğa yürüyüşünde şöyle durup etrafını izlediğinizde, etrafta onlarca türüyle ötüşen kuşları, toprağın üzerindeki karıncaları, ağaçların arkasında saklanan daha büyük canlıları ve bunların çevreleriyle etkileşimleri sonucunda oluşmuş olan 'dinamik dengeye' bir anlığına baktığınızı fark edip, karşınızdaki sistemin kapalı bir kutunun ötesinde her bir bireyin birbiriyle karmaşık etkileşimleri sonucunda ortaya çıkmış muazzam bir kompleks sistem olarak görmenizi sağlayacak olması bile başlı başına harika bir şey, değil mi?
0
yorum

14 Mart 2017 Salı

Pi sayısını Bilardo Topları ile Hesaplamak!

Bugün bildiğiniz gibi, her yılın Mart ayına denk gelen 3.14, yani Pi Günü! 3.14 ile başlayıp sonsuza kadar kendini hiç bir şekilde tekrar etmeden giden bu ilginç sayı adına her yıl Mart ayının 14’ü ‘Pi Günü’ olarak kutlanıyor.

Not: Yazıdaki matematik sembollerini düzgün görüntülemek için LateX yazı tiplerinin 15-20 sn kadar yüklenmesini bekleyin.[Mobil platformlarda formüller bazen $$ işaretleri ile çıkabiliyor, masaüstü tarayıcılarında genellikle bu problem olmuyor.]



Pi sayısı, herkesin okul yıllarından iyi ya da kötü hatıralarla hatırladığı, çizebileceğiniz her çemberin çevresinin çapına oranına eşit olan bir sayı. Sayı doğrusunda tam sayılar ve rasyonel sayıların dışındaki tüm boşlukları dolduran gerçel sayıların bir üyesi ve ondalık gösteriminde virgülden sonra rakamları kendini tekrar etmeden sonsuza kadar gidiyor. Bu özelliği sayesinde örneğin $\pi$ sayısı içinde kendi doğum tarihinizi ard arda gelecek şekilde gün-ay-yıl-saat-dakika-sn sıralamasında kesin olarak bulunduğunu biliyorsunuz  (denemek isteyenler için) fakat bunun hangi basamakta olacağını kesin olarak tahmin etmek çok güç.. Bu konu başlı başına bir $\pi$ Günü yazısı olabilir fakat benim bahsedeceğim, $\pi$'nin bana göre çok daha ilginç ve ağzı açık bırakan başka bir özelliği: Pi sayısının istenilen herhangi bir basamağını basit bilardo topları ile hesaplayabilen bir yöntem..

Kullanacağımız yöntem matematiksel fizikte ifade edilmesi oldukça kolay fakat çözümü ile ortaya çıkan sonuçları muhteşem karmaşıklıktaki problemlerden biri: Bilardo problemi.. Özellikle dinamik sistemler ve istatistiksel mekanikte çokça referans verilen ve içinde oldukça derin yöntem ve sonuçlar barındıran bu problemlerden en basitini düşünelim: Elimizde biri diğerinden daha ağır iki tane ideal bilardo topu ve düz bir doğru üzerinde bir tarafta bir duvarımız var. Bilardo toplarını duvara göre kütlesi az olan ortada olacak şekilde yerleştiriyoruz ve kütlesi büyük olanı hızla gönderip ufak olana çarptırıyoruz.


Ardından bilardo toplarının birbiriyle ve ufak bilardo topunun duvarla yaptığı çarpışmaları saymaya başlıyoruz. Tüm çarpışmaların hem kinetik enerjinin hem de momentumun korunduğu esnek çarpışma olduğunu düşünüyoruz. Topların birbiriyle ve duvarla belirli bir çarpışma yaptıktan sonra belirli bir çarpışmadan sonra artık ikisinin de diğer yöne yani sağa doğru giderek bir daha çarpışmayacağını biraz hesap yaparak gösterebiliriz. Bütün bunların $\pi$ ile ne ilgisi var diye sormaya başladınız tabi. Problemin vurucu kısmı şu: Eğer kütlelerin oranını $M/m = 100^N$ olarak belirlersek ($M$ büyük kütleli cismin kütlesi, $m$ küçük kütleli cismin kütlesi, $N$ ise 1,2,3,... gibi bir doğal sayı) belirlediğimiz bir $N$ sayısı için sistemdeki toplam çarpışma sayısını hesapladığımızda cevap olarak, hazır olun, $\pi$ sayısının ilk $N$ basamağını elde ediyoruz.

Örneğin $N=1$ olsun; bu durumda $M/m=100^1=100$ yani büyük top, küçük topun kütlesinin 100 katı kadar.. Bu durumda sistemdeki çarpışma sayısı $\pi$'nin ilk 1 basamağı, yani 3. Eğer  $N=2$ ise yani $M/m=100^2 = 10000$ ise çarpışma sayısı $\pi$'nin ilk 2 basamağı: 34. $N=3$ için çarpışma sayısı 314, $N=4$ için ise 3141. Günün sayısı 31415 için ise $N=5$ almamız yeterli.. Bu yöntemle çarpışan cisimlerin kütle oranlarını $N$'ye bağlı olarak değiştirerek $\pi$ sayısının istediğimiz basamağını tam olarak hesaplayabiliyoruz... Bu yöntemi etkileyici kılan şey, yazının da başında belirttiğim üzere $\pi$ sayısının basamakları kendini tekrar etmediğinden dolayı istediğiniz bir basamağını ancak elle ya da bilgisayarla hesaplamak durumundasınız.. Artık elinizde bir başka yönteminiz daha var: iki bilardo topunu çarpıştırmak!

$\pi$ Gününüz kutlu olsun!

Meraklılar İçin Kaynaklar:

Problem ve çözümüyle ilk karşılaştığım yer Numberphile videosu: Pi and Bouncing Balls

Bu yöntemi ortaya koyan G. Galperin'in problemin çözümüne dair yazdığı harika makale: Playing Pool with Pi

'Bilardo topları' probleminin dinamik sistemler ve kaos konusuyla ilişkili olarak nelere kadir olduğuna dair Plus dergisindeki yazı: Chaos on the Billiard Table

Tübitak Yayınlarından zamanında yayınlanan 'Pi Coşkusu' kitabı.

*Bu yazı 2015 yılında GökGünce'de yayınlanan bir yazının derlenmiş halidir.
0
yorum

12 Mart 2017 Pazar

Bilimde 'güzellik' üzerine: Sarkaç ve Bilardo Topları

Yakın zamanda okuduğum güzel bir kitap fizikte 'güzel' diye tabir ettiğimiz, tıpkı sanatta ve diğer insan edimlerinde deneyimlediğimiz 'güzellikle' bağdaştırılabilecek yoğunlukta olan bu his üzerine biraz düşünmemi tetikledi. Boğaziçi Ünv. Yayınevi'nin yayınladığı baskısı ve çevirisiyle oldukça kaliteli kitaplardan biri olan 'Prizma ve Sarkaç: Bilimde En Güzel On Deney" ele aldığı bilimsel deneyleri bilim tarihi çerçevesinde inceleyip her birinin içinde barındırdığı özgünlük ve "güzelliği" tartışıyor. Bilimde on deney alt başlığına sahip olsa da deneylerin hemen hepsi fizik üzerine, fakat yazar tüm bu deneylerin gerçekleştirildikleri zamanda bilimsel alanların günümüzdeki gibi ayrışmadığı gerçeğine yaslanarak bu seçimini meşrulaştırıyor.

Bilimsel bir kavramı kulağa oldukça "öznel" gelen "güzel" gibi bir sıfatla betimlemek olayın doğasına aykırı gibi duruyor belki de. Bilimsel uğraşın onu gerçekleştiren insandan ve kaynağı olan sonsuz meraktan ayrılamayacağı gerçeği göz önüne alınırsa, bilimsel çalışma yapan kişilerin birçok teorem, kanıt veya deneye bu şekilde bir yakıştırmada bulunmaları aslında sıklıkla karşılaşılan bir durum. Herhangi bir sistemin işleyişini basit matematiksel formüllerle ifade edebilmek ve bunlar arasında ilişkileri gösterebilmek bir bakıma başlı başına estetik bir uğraş. Fakat bu estetiği genellikle 'elleri kirletmek' diye ifade edilebilecek deneysel çalışmalar için söyleyebilmek ilk etapta biraz sağduyuya ters geliyor. Kitabın da bilimdeki güzellik kavramını işleyen diğer kitaplardan farklı olarak deneylere yoğunlaşması ve bunların içinde dünyayı kavrayışımız, evrenin işleyişine dair çözdüğümüz problemler ve 'gerçekliğe' dair varılan bir aydınlanma adına bunlara atfettiği önem gerçekten farklı bir bakış açısı sağlıyor.

Kendi payıma fizikle uğraşmaya başladığımdan beri karşılaştığım birçok güzel deney ve teori oldu. Bu yazıda biri deneysel biri de teorik iki tane seçimimi paylaşayım istedim. Deneysel olan kitabın adında da geçen, Dünya'nın döndüğünü kanıtlayan Foucault Sarkacı deneyi, teorik olan ise klasik mekanikte (ağırlıklı olarak istatistiksel mekanikte) karşımıza çıkan 'ergodik sistem' kavramı ve bunun "bilardo topları" sistemine uygulanışı. Her ikisi de barındırdıkları temel fikirler ve basit düşünme biçimlerinden ortaya çıkan 'beklenmedik sonuçlar' nedeniyle ilk karşılaştığımda beni fazlasıyla etkilemiş, bana göre içinde muhteşem bir "güzellik" barından kavramlar.

Foucault Sarkacı
(Geçmişte yazdığım bir yazıdan alıntı)

1851’de Paris Gözlemevi’nin ünlü Meridyen Salonu, insanlığın Dünya’yı kavrayışının belki de en incelikli gösterilerinden birine sahne oluyordu: Dünya’nın dönüşünün deneysel olarak basit bir şekilde ilk defa gösterimine.. Deneyi yapan kişi akademiden epey uzak fakat yaptığı çalışmalarla dönemin en başarılı fizikçilerinden biri Léon Foucault..

Foucault-rotz Çok uzun bir telle, bir binanın tepesine asılan basit sarkacın salınım düzleminin bulunduğunuz enleme göre belirli bir hızla döndüğünü gösteriyor deney. Normalde günlük hayatımızda, salınım yapan sarkaçların ucundaki kütlelerin büyüklüklerinin küçük ya da iplerinin kısa olmasıyla gözleyemediğimiz bu hareketi, Foucault’nun yaptığı şekilde 28 kg’luk kurşun bir kürenin ucuna asılı olduğu 67 metrelik uzunluğunda bir tel ile yaparsanız Dünya’nın dönmesi sebebiyle oluşan “Coriolis Kuvvetleri” sebebiyle salınım düzleminin yavaş yavaş hareket ettiğini, Paris enlemlerinde yaklaşık 32 saatte tam bir tut attığını görebilirsiniz. Coriolis kuvvetleri, dönen sistemleri Newton Kanunları ile inceleyebilmek için sisteme eklenmesi gereken “hayali kuvvetlerden” biri (diğeri de “merkez-kaç kuvveti). Newton’un hareket kanunları ivmelenmeyen eylem çerçeveleri için yazıldığından, Dünya gibi kendi ekseni etrafında hızla dönen bir sistemde fazladan etkiler işin içine giriyor. Yani, Foucault sarkacının bu hareketi Dünya’nın sabit değil, ivmeli bir hareket yaptığını (kendi ekseni etrafında döndüğünü) birinci elden kanıtlıyor. (Animasyonun kaynağı: Wikipedia)

Foucault sarkacının salınım ekseninin bir tam tur atma süresi enlemden enleme değişiyor ve aşağıdaki bağıntı ile veriliyor: $$ T = \frac{1 gun}{\sin{\theta}} $$ θ değeri bulunduğunuz enlem değeri ve T de sarkacın tam tur atma periyodu (gün cinsinden). Örneğin 30 derece enlemlerinde bulunan bir yer için, sarkacın bir tam turu 2 günde tamamlanıyor (sin30 = 0.5). İlginç olan, kutuplarda tam bir günde bir tur atarken, ekvatorda salınım düzlemi değişmiyor (θ yerine 90 ve 0 değerleri koyduğunuzu düşünün).

Foucault bu gösterimini ilk yaptığında epey ilgi görmüştü fakat kendisi akademi dışından biri olduğu için birçok burnu kalkık akademisyen onu görmezden gelmişti. Fakat bu etkileyici deneyin söylentileri Paris çevrelerinde hızlıca yayılmış ve kısa bir süre sonra Paris’in en ikonik binalarından Panthéon’da da bir gösterim yapılmıştır. Bu gösterimle hemen hemen herkes Foucoult’nun deneyinin özgünlüğü ve etkisi konusunda hem fikir olmuşlardı.

Paris’te Foucault’nun bu deneyi özellikle bilim müzeleri tarafından ciddi anlamda sahipleniyor ve birçok müzede gösterimler yapılıyor. Geçen yıllarda ziyaret ettiğim Paris Musée des arts et Métiers müzesinde böyle bir gösterimi izlemiştim. Ayrıca Paris’in en merkezi yerlerinden birinde olan Panthéon’un içinde de devasa bir Foucault Sarkacı gösterimi yapılıyordu.

IMG_0940Paris Musée des arts et Métiers’de Foucault Sarkacı Gösterimi’nden

IMG_1026Paris Panthéon’daki dev Focoult Sarkacı

Foucault Sarkacı deneyi bana 1851 gibi geç bir tarihi nedeniyle hep etkileyici gelmiştir. Evreni algılayışımızda binlerce beyin, yüzlerce yıl birbirinden etkileyici teoriler, varsayımlar ortaya atmış fakat şunun şurasında daha 150 yıl öncesine kadar Dünya’nın kendi ekseni etrafında döndüğünü deneysel bir şekilde kanıtlayamamıştı. Geçmişte aldığım Deneysel Fizik dersinde, bilim tarihinde önemli bir deneyi seçip orijinal makalesinden deney hakkında detaylı bilgi edinmemiz gereken bir ödev sırasında epey okumuştum Foucault Sarkacı’na dair ve bana göre bu deney Bilim Tarihi’nin sadelik, estetik ve derinlik açısından en etkili deneyidir. Foucault Sarkacı, bana hep Arşimet’in ünlü sözünü çağrıştırıyor: “Bana yeteri kadar uzun bir çubuk verin ve Dünya’yı yerinden oynatayım”.. Foucault’nun durumunda da benzer bir “basitlik” var aslında : “Bana yeteri kadar uzun bir tel verin, size Dünya’nın döndüğünün en güzel kanıtını göstereyim!”

Ergodik Sistemler ve Bilardo Topları:

Kelime olarak kulağa karmaşık gelse de aslında fikir olarak basit bir kavram 'ergodik sistem'. Fizikte herhangi bir sistemi genelde iki farklı şekilde belirtiriz. Birincisi sistemin zaman içerisindeki devinimini, yani zamanla değişimini veren 'dinamik gösterim'; diğeri ise sistemin bütün durumlarını göz önüne alıp, bu durumların nasıl dağıldıklarını gösteren 'durum gösterimi'. Kısaca örnek vermek gerekirse; örneğin elimizde bir kutu içerisinde bilardo topları olsun. Bu bilardo toplarının konumlarını ve hızlarını en başta bilelim ve bunları serbest bırakalım, Newton'un hareket yasası çerçevesinde etkileşmelerini zaman içerisinde izleyelim. Etkileşmeler iki türlü olacak, ya bir biriyle ya da duvarla çarpışıp yollarına devam edecekler. İlk tipte olan yani 'dinamik gösterim', herhangi bir zamanda topların nerede oldukları (konum) ve hızlarının ne olduklarını ifade eden gösterim (altta):

Dinamik gösterimde, 1 x 1'lik bir kutuda dört bilardo topu, başlangıç hız ve konumları başlatılıp zamanla Newton'un hareket yasası gereği etkileşiyorlar. (Yukarıdaki simulasyonun temelindeki algoritma: Event-Driven Molecular Dynamics: Adler B. & Wainwright T. E. Phase Transition for a hard sphere system (1957))

İkincisi ise sistemin olabilecek tüm konum konfigürasyonlarının fotoğraf karesi olarak çekilmiş hallerinin bütünü. Birinci gösterimde zaman sistemi evrilten faktörken, ikincisinde karelerin her biri birbirinden bağımsız, sanki bir torbaya atılmış olan tüm olabilecek durumların bütününün içeriyor. Fotoğraf şeklinde olan durumlar, zamana bağlı olarak sistemin ilerleyişini gösteren durumlardan çok daha farklı şekilde oluşturuyorlar. Bunun için yapmamız gereken şey tüm olası durumları (fotoğraf karelerini) rastgele oluşturmak. Bunun için boş bir kutu ile başlayıp rastgele bir bilardo topu yerleştiriyoruz (bir top yerleştirmek o topun x ve y konumları için 0 ile 1 arasında birörnek dağılıma sahip (uniformly distributed) sayılar seçmek anlamına geliyor). Ardından bunu üç kez daha tekrarlıyoruz; herhangi bir top üst üste gelmediği sürece elde ettiğimiz durumu geçerli bir durum olarak etiketleyip, torbamıza atıyoruz (rastgele yerleştirdiğimiz toplardan biri diğerinin üzerine gelirse bu durumu çöpe atıp baştan başlıyoruz). Bu prosedürü defalarca tekrarlayıp bir sürü durum elde ediyoruz. Durumların elde edilişindeki rastgeleliğe dikkat etmelisiniz; herhangi bir şekilde bir fizik kuralından bahsetmeden rastgele kutuya toplar yerleştiriyorum. İlk gösterimde topların değişimi Newton'un ikinci yasası gereği değişiyorlardı, ikinci gösterimde ise (herhangi bir topun üst üste gelmediği) rastgele tüm durumları oluşturup torbaya atıyorum. (Detay: Bu şekilde fotoğraf kareleri elde etmek için Monte Carlo ve Markov Zinciri yöntemleri kullanılıyor.)

Tüm olası durumları gösteren ve rastgele konumlar atayarak oluşturulmuş "fotoğraf karelerinden" örnek sekiz tanesi yukarıda gösterilmiş. Karelerin birbiriyle üstteki animasyondaki gibi zamansal olarak birbiriyle bir ilişkisi yok gördüğünüz gibi, biri diğerinden bağımsız bambaşka bir durumu temsil ediyor. Bunlardan binlerce üreterek torbamıza koyuyoruz.

Gelelim vurucu kısma; ergodik teori bize şunu söylüyor: eğer elinizdeki sistem 'ergodik' olma şartlarını sağlıyorsa (ki bu şartlara burada değinmeyeceğim), bu sistemin herhangi bir dinamik değişkeninin (örneğin tüm topların x = 0.5 ve x = 0.6 arasında bulunma olasılıkları) zaman ortalaması, torbamızdaki durumlar (fotoğraflar) üzerinden alınan ortalamaya eşittir. Yani siz sistemi başlatıp diyelim 1000 saniye boyunca çalıştırıyorsunuz ve kutunun ortasından (x = 0.5 ve x = 0.6 arasından) geçme sayısının ortamalasını buluyorsunuz; aynı şeyi torbanızdaki durumlar üzerinde, yani elinizdeki fotoğraflardan kaç tanesinde ortalama olarak kutunun ortasında olduklarına bakıyorsunuz, bunlar birbirinin aynısı çıkıyorlar.

Soldaki grafik ilk yöntemle (dinamik gösterim) ile edinilmiş benzetimde seçilen bir topun x ekseninde 0 ile 1 arasında bulunma olasılık dağılımını, sağdaki ise ikinci yöntemle yani durumlar üzerinden elde edilen, tüm durumlar üzerinden seçilen bir fotoğraftaki topların x ekseni üzerindeki dağılımlarını gösteren grafikler. İkisi arasındaki birebir örtüşme işte dramatik sonuç! Tabii dikkatli gözler hemen şunu görebilir, topların kenarlarda bulunma olasılıkları ortada bulunmalarından daha yüksek! Alın size düşünmeniz için güzel bir problem! :) [grafiteki eta değeri kutu içerisindeki top yoğunluğu ile ilgili bir parametre, top sayısı arttıkça artıyor.]

Kısacası zaman ortalamaları, durum ortalamalarıyla aynı çıkıyor. İşte bu muhteşem güzellikte bir sonuç! Birincisinde fiziksel bir kanun çerçevesinde ilerleyen bir sistem ile diğerinde rastgele elde edilmiş durumların birbirine eşdeğer olduğunu görüyoruz. Yani ister sistemi uzun süre takip edip ortalama alın, isterseniz de elinizdeki tüm durumlar üzerinde ortalama alın. Fizikte bir sistemi uzun süre takip edebilmek genellikle kolay bir şey değildir; o sistemin tüm durumlarını hesaplamak ise çoğu zaman basit bir sayma problemi olarak ifade edilebilir. Bu yaklaşım bize bu gibi durumlarda büyük kolaylık sağlıyor elbette. Yukarıda verdiğim örnek örneğin bir kutu içerisindeki gaz moleküllerinin davranışını anlamak için kullanılıyor. Örnekteki gibi sadece 4 tane değil milyarlarca molekülün etkileşimini ilk yaklaşımda olduğu gibi hesaplamak imkansızken, ikinci yaklaşımdaki gibi olası tüm durumlar üzerinden sisteme dair genel sonuçlar elde etmek ise nispeten daha kolay. Ergodik teori sayesinde sistemi zaman boyunca takip etmek yerine, olası durumları belirleyip bunlar üzerinden ortalama alarak aynı sonucu elde edebiliyoruz. Böyle bir durum söz konusu olmasaydı istatistiksel mekanik yapmak neredeyse hayal olabilirdi diyebiliriz belki de!

Fizikte güzellik deyip, konuyu biraz uzatmış olsam da en azından kendi gözümden 'güzel' olduğunu düşündüğüm, beni ilk gördüğümde heyecanlandıran iki fenomeni paylaşmış oldum. Bu ikisi yapıları itibariyle çok temel prensiplerden yola çıkarak ortaya çıkardıkları olağanüstü sonuçlar itibariyle bence kesinlikle 'güzel' sıfatını fazlasıyla hak ediyorlar!

"Bilardo topları" animasyonları Coursera'daki 'Statistical Mechanics: Algorithms and Computation' dersinde temel alınan kodlarla oluşturuldu. Merak edenler Werner Krauth'un aynı isimli kitabını inceleyebilirler.
2
yorum

8 Mart 2017 Çarşamba

Yapay Öğrenme, Veri Görselleştirme ve 'Açıklama' üzerine

Blogdaki sessizliği biraz bozmak adına, son birkaç gündür etrafımda gördüğüm, ilgimi çeken, aklıma yeni gelen birkaç şey üzerine yazmak istedim.

Yaklaşık bir aydır yüksek lisans tezimi yazmak amacıyla CERN'de bulunuyorum. Geçen yazki çalışmamızın üzerinden bu yıl da üç ay boyunca bölümden izin alarak, buradaki çalışmalara katkı koyabileceğim ve nispeten 'gürültüsüz' bir ortamda tez çalışmama odaklanabileceğim bir zaman aralığını olabildiğince değerlendirmeye çalışıyorum. CAST deneyinde buradaki danışmanı ve katkı veren diğer kişilerle birlikte, karanlık enerji konusunda önerilen chameleon parçacıklarını tespit etmeye çalışan KWISP adında bir alt dedektör üzerinde çalışıyoruz. Dedektörün ilk versiyonu ile aralık ayında bir tur veri alınmış, ben de Şubat ayındaki veri alımına ve ardından alınan verilerin hızlıca analiz edilip dedektör için gereken düzenleme ve eklentilerin yapılması sürecine dahil oldum. Türkiye'ye geri dönmeme yaklaşık bir ay kala, artık yavaş yavaş veri analizi konusunda elimdeki kodları ve sonuçları toparlamaya, ardından bunları tutarlı bir çerçeve içinde sunmak adına deneyin geneli, teorik arka planı ve mekanizmanın çalışma prensiplerini içime sindirebilmek için literatüre dalmaya hazırlanıyorum. [CAST deneyi ve KWISP üzerine daha detaylı bilgi için Gökyüzü Bülteni'nin yeni sayısına göz atabilirsiniz.]

Tüm bunlar olurken, bir taraftan da buradaki ortamı deneyimlemek adına sağda solda gördüğüm birkaç etkinliğe katılmaya çalışıyorum. Bunlardan biri bu hafta başında başlayan ve  bugün sona eren '(Inverted) CERN School of Computing' okulu idi. Okulun isminin başındaki 'Inverted' ibaresi, CERN'ün 1970'lerden beri organize ettiği köklü CERN School of Computing'in geçmiş katılımcılarının hazırladıkları bir 'mini-okul' olmasından kaynaklanıyor. Geçen yıllar okula dinleyici olarak katılan kişiler öğrendiklerini ve kendi uzmanlıklarını gelip paylaşıyorlar. Doğal olarak işleyen, kendini besleyen bir sistem...

Kaynak: Inverted CERN School of Computing 2017

Bu seneki okulun temel konusu 'Machine Learning' (Yapay Öğrenme) etrafında dönüyor. Bu konu şu anda tüm dünyayı sallıyor olduğundan büyük verinin 'en büyük' haliyle uğraşılan paracık fiziği komünitesinde de bi karşılık bulması kaçınılmazdı. Büyük veri setleri üzerinde çeşitli istatistiksel örüntüler bulma şeklinde çok kabaca özetlenebilecek bu yöntemler, bilgisayar ile standart programlama ve problem çözmeden 'öğrenebilen algoritmalar' temelli olmaları ile ayrılıyorlar. Bu sayede bu yöntemler uygulanan alandan neredeyse bağımsız bir şekilde ve günümüz donanım alt yapısının sağladığı performans avantajları ile önüne geçilemez bir hal almış durumda. En basitinden cep telefonlarımızdaki yüz ve ses tanıma, metin tahmini gibi uygulamalar bu alandaki gelişmelerle büyük ilerlemeler kaydedip günlük hayatımızın vazgeçilmez parçası oldular. Okulda bu yöntemlere giriş şeklinde dersler anlamında hepsi birbirinden iyi hazırlanmış 'Yapay Öğrenmeye Giriş', evrimsel fikirlerden yola çıkılarak geliştirilen 'Genetik Algoritma Yöntemleri', 'Anomali Tespit Yöntemleri' üzerine dersler vardı. [Derslerin slaytlarına ve video kayıtlarına şu adresten ulaşabilirsiniz: https://indico.cern.ch/event/591368/ ]

Bunların yanında büyük veri üzerine konuşurken ya da araştırmalar sunulurken çoğu zaman geri plana atılan fakat önümüzdeki günlerde fazlasıyla ön plana çıkacak bir konu olan 'Veri Görselleştirme' (Data Visualization) üzerine inanılmaz kafa açıcı bir ders dinleme fırsatım oldu. Sonuçta bilim insanları olarak araştırma ya da bir problem çözme safhasının sonunda elde edilen sonuçları raporlamak ya da sunum haline getirip başka bir kişiye iletmek için bir yöntem seçmemiz gerekiyor. Bunun en standart yöntemlerinden biri grafikler. Fakat bu grafiklerin tasarımlarından renk seçimlerine, kullanılan şekillerden içeriklerine kadar birçok faktör aktarılmak istenen mesajı fazlasıyla etkiliyor. Genelde bilimsel camiada araştırmanın 'analiz' kısmına ağırlık verildiğinden bu son kısım genelde atlanıp bir şekilde günü birlik çözümlerle, üzerine fazla düşünmeden bir şekilde hallediliyor. Sunumda gördüğüm yöntemlerden kendi çalışmalarımda da dikkat etmediğimi anladığım birçok noktayı fark ettim. Konuyla ilgili konuşmacının verdiği harika bir kaynak var, ilgisini çekenler mutlaka incelemeli: Visualization, Analysis and Design (Tamara Munzner)

Yine bununla ilgili, geçenlerde buradayken 'Why Information Grows' adında ilginç bir kitap okuma fırsatım oldu. Kitabın yazarı MIT Media Lab'da proför Cesar A. Hidalgo, fizikteki temel entropi ve enformasyon fikirlerinden yola çıkarak bunları ekonomik gelişme ve kitle üretimi konularına uyguluyor. Kitabın ilk kısmı özellikle entropi ve "dengeden uzak karmaşık sistemlerde' bilginin nasıl üretildiğine çok güzel benzetmelerle açıklarken, ikinci kısımda bu fikrilerin global ölçekte ülke ekonomilerine nasıl uygulanabileceğini gösteriyor. Kitapta birçok ülke için oldukça açıklayıcı grafikler kullanıyor, zira kendisi Amerika'daki devlet verilerinin görselleştirilmesi konusunda devasa bir girişim olan Data USA'in de kurucularından biri. Çalışmaları, bahsi geçen fikirlerin ve altta yatan verilerin etkili ve efektif bir görselle nasıl daha iyi anlatılabileceğini gösteren güzel bir örnek . Kitabın beni en çok etkileyen kısmı ise kitabın son bölümünde yazarın kitabın ilk yazımından sonuna kadar tüm yazma sürecini bir 'belgesel' şeklinde kayda aldığı bölüm ve paylaştığı deneyimi. Böyle bir şeyle ilk defa karşılaştığımdan yazar ve bu fikirleri üretip, kitap haline getirme sürecine birinci elden şahitlik etmek beni epey etkiledi. Üzerine bir de bugün öğrendim ki yazar geçen yıl Mart-Haziran ayları arasında hayatının bir kısmını 'dokumante' ettiği bir belgesel (In my Shoes) hazırlayıp bugün gösterime sunmuş. Akademik olarak böylesine aktif olarak üreten, fikirlerini paylaşan ve bunları uygulayan bir akademisyenin günlük rutinine içinde ailesi, çalışma ve arkadaş ortamı da dahil olmak üzere yukarıdan bir bakış sağlayan oldukça ilginç bir çalışma olmuş.

Bunların üzerine bu hafta Coursera'da başlayan Python ile veri analizi konulu "Introduction to Data Science in Python" dersi paralelinde verilerin çeşitli istatistiksel ve yapay öğrenme yöntemleri ile analizin yanında 'görselleştirilmesi' üzerine koca bir modül ayırıldığını fark ettim: "Applied Plotting, Charting & Data Representation in Python". Bu konuya yapılan vurgu gittikçe büyüyor ve 'görselleştirme' olarak anılan fakat genel olarak farklı 'ifade (representation)' biçimleri olan bu yöntemler bilginin anlamlandırılma süreçlerini ilerleyen zamanlarda epey etkileyecek gibi duruyor.

Bununla ilişkili olarak bu tip konulara hayli kafa yoran, Michael Neilson'ın birkaç sene önce yayınladığı detaylı bir yazıya denk geldim geçenlerde: "Reinventing Explanation' adında. Günümüz medya ve teknoloji araçları ile 'açıklama'nın yeninden tanımlanabileceği bir dönemde olduğumuzu, bunu etkili bir şekilde yapabilmek için bu konuya kafa yormamız gerektiğine işaret ediyor.

Bilinç akışımızın son durağında konuyu fiziğe bağlayıp Physics Today'de bu ay yayınlanan standart fizik lisans eğitiminin 'sıkıcı' ve 'heyecandan yoksunluğu'ndan dem vuran harika yazı (How to teach me physics: Tradition is not always a virtue) ve son zamanlarda epey eğlenerek takip ettiğim şu blogda yazarın bu sıkıcılığı alt etmek için önerdiği yöntemlerden birinin işaret etmeye değer diye düşünüyorum: "You Physics Teachers Really Ought to Teach Numerical Calculations".

Bonus olarak bu kadar 'veri görselleştirmeden' bahsedip, bu alanda oldukça bilinen ve geçtiğimiz haftalarda kaybettiğimiz üstad Hans Rosling'i anmadan geçmek ayıp olur. BBC'deki 'Joy of Stats' belgeselindeki ünlü 200 ülkenin son 200 yılki nüfus gelişimlerini gösteren dört dakikalık videosu ile yazıyı noktalayalım (şahane bir TED konuşması için: "The best stats you have ever seen").

0
yorum

18 Şubat 2017 Cumartesi

Kitap: Yaşam Nedir? (Metis Yay.)

Bilimin en büyük sorularından birini yepyeni araştırmalar ışığında ele alan ufuk açıcı bir kitap 'Yaşam Nedir?'. Problemin formüle edilişine bakarak tipik bir bir biyoloji kitabı beklentisi uyandırsa da aslında alt başlığı 'Kimyanın Biyolojiye Dönüşümü', olaya kimya perspektifinden bakacağının ipucunu baştan veriyor. Fakat bahsi geçen kimya, standart kimyadan çok daha farklı, kimya alanında oldukça modern bir bakış olan 'sistem kimyası' perspektifi.

Canlı varlıkları, cansız varlıklardan ayıran temel özellikler göz önüne alındığında, canlıların 'açıklanamaz' görünen karmaşıklıkları, kendini sürekli çoğaltıyor olmaları ve bunu sağlayan bir metabolizmaları olması gösterilir. Canlılığın basitten karmaşıklığa doğru 'ilerleyişini' ve bunun mekanizmasını Darwin'in doğal seçilim kuramı ortaya koyuyor. Fakat Darwin'in kendisinin de belirttiği 'sürekliliği' sağlayacak, temelde kökleri ilk canlıya uzanan ve cansız maddeden canlılığın nasıl oluştuğu problemi cevapsız bir şekilde ortada duruyor. Fiziğin en temel prensiplerinden olan 'Termodinamiğin İkinci Yasası' (kapalı) sistemlerin kendiliğinden yapısal olarak daha düzenli ve daha karmaşık hale gelemeyeceğini söylerken canlılığın geleneksel anlatıya göre 'rastgele' ve kendiliğinden bir takım süreçlerle ortaya çıkmasını açıklamak oldukça güç görünüyor. Kitapta ele alınan görüş ilk yaşamın oluşumunu yürüten mekanizmaların standart kimyasal reaksiyonlardan birçok yönden farklılaştığını ve arka planda ikinci yasa geçerliliğini sürdürüyor olsa da daha küçük ölçekte 'dinamik-kinetik kararlılık' olarak tanımlanan başka bir itici gücün var olduğu ileri sürülüyor. Kitabın en önemli tezlerinden biri ise yaşamın temelini tanımlayan 'kendini kopyalayabilen' ve dinamik kinetik kararlılığa doğru yol alan sistemlerin sadece 'ilk yaşam' için değil, doğal seçilimin iş başında olduğu şu anki karmaşık biyolojik süreçleri tanımlamak için de kullanılabileceği. Kitap aslında, bu özelliklere sahip 'kimyasal' sistemlerin incelenmesine adanmış olan 'sistem kimyası' alanının son zamanlardaki heyecan verici keşiflerini büyük resmin içerisinde yerleri ve 'Yaşam Nedir?' gibi iddialı bir soruya verdiği cevap etrafında tanıtmayı hedefliyor.

Bahsettiği konuların bizzat aktif araştırmacısı olan yazar A. Pross, kitapta kavramları açıklarken kullandığı dili kendi alanı hakkında konuşurken bilim insanlarının düştükleri 'teknik dil' ve  'her şeyin aşikar olması" problemiyle karşılaşmıyoruz kitapta. Kitabın başından sonuna kadar çok iyi planlanıp adım adım temeller atarak bir taraftan önümüzdeki bölümlerde bizi bekleyenleri de hissettirerek, bölüm sonlarında konuyu toparlayıp özetleyerek ilerliyor ve yazar son bölümde vurucu soruya kendi bakış açısından getirdiği cevabı sunuyor.

Metis Yayınları'nın Bilim serisinden kalitesiyle yine şaşırtmayan, Raşit Gürdilek'in kusursuz çevirisiyle Türkçe'ye kazandırılmış bu kitap, yaşamın en temellerine kimyanın en güncel araştırmaları çerçevesinde sunduğu cevapları öğrenmek için müthiş bir kaynak niteliğinde!
0
yorum

16 Şubat 2017 Perşembe

Kitap: Evrenin Yüzde Dördü (Tübitak Yay.)

'Evrenin Yüzde Dördü', günümüz modern fiziği ve kozmolojinin en büyük iki problemi olan 'karanlık madde' ve 'karanlık enerji' konularını tarihsel olarak ele alan muhteşem bir kitap! Tübitak Yayınları'nın bir türlü anlayamadığım yayın politikaları sebebiyle yayınlansa dahi hiçbir yerden haberini duymadığım, kitapçıların büyük bir kısmına dağıtım yapılmaması ve internet kitapçılarının çoğunda da listelenmemesi nedeniyle kolayca gözden kaçabilecek bir kitap. Kitabın yazarı Richard Panek'in çıkarttığı kusursuz 'dedektiflik' çalışmasıyla, çevirmen Zeynep Çiftçi Kanburoğlu'nun özverili ve yetkin katkısı, İTÜ Fizik Bölümü'nden Doç. Dr. Emre Onur Kahya'nın çeviriye verdiği bilimsel danışmanlık ve kitabın baskısının kalitesi ortaya Türkçe'ye kazandırılmış en kaliteli popüler fizik kitaplarından birini çıkarmış.

Kitabın başlığı evrenin madde-enerji içeriğinin bildiğimiz maddeden oluşan %4'lük kısmına atıfta buluyor fakat içeriği tamamen geriye kalan %96'sı üzerine odaklanmış durumda. 1960'larda Bell Laboratuarında R. Wilson ve A. Penzias'ın 'şans eseri' keşfettikleri 'Büyük Patlamanın yankıları' olarak tarif edilebilecek Mikrodalga Fon Işınımı (CMB-Cosmic Microwave Background Radiation)'nin keşfi ve bunu izleyen olaylar etrafında gelişen hikaye, sırasıyla karanlık madde ve karanlık enerji arasında gidip gelerek bu iki ayrı problemin ortaya konup geliştirilmesi ve çözülmesine dair girişimlere dair oldukça detaylı bir anlatım sergiliyor. Problemleri ortaya koyan kişilerin ve üzerinde çalışan grupların üyelerinin oldukça detaylı portrelerini çıkartan ve olay örgüsüne yerleştiren kitap daha yüz yıl öncesine kadar evreni galaksimizden ibaret sandığımız, yaşına, içeriğine dair oldukça kaba bilgilerimiz olduğu yaklaşımdan günümüzde yüz milyarlarca galaksiden biri konumuna ve detaylarına dair oldukça kesin bilgilere sahip olduğumuz zamanlara adım adım nasıl geldiğimizi gösteriyor. Teorik ve gözlemsel çalışmalara oldukça dengeli bir şekilde yer verilmiş olması; herhangi bir teori ya da deney için gereksiz bir iddiadan kaçınılmış olması da belirleyici özelliklerinden biri. Yapılan çalışmaların özellikle astrofizik arka planına, yapılan yayınların orijinal isimlerine ve tarihlerine birebir yer verilmiş olması kitabın ayrıca bu alanın genel resmini çizmek ve gerektiği zaman referans olarak kullanılması anlamında da önemli.

Bu tip başarılı 'kurgu-dışı' (non-fiction) yazarların 'araştırmacı gazeteci' kimliğiyle yaptıkları son derece titiz ve detaylı çalışma sonunda ortaya çıkan içerik ve dil, sanki yazar kitapta anlatılanlar tarihsel olarak gerçekleşirken yan masadan kulak misafiri olup dinleyip kaydediyor, tüm anlamlı ayrıntıları ortaya bir bir seriyor izlenimi yaratıyor. Bu ayrıntıların seçiminde konuya hakimiyeti ve gelişmelerin birbirleriyle ilişkileri konusunda da fazlasıyla dersini çalışmış bir yazar söz konusu.

Gönül rahatlığıyla kozmoloji alanında yine Tübitak Yayınlarından Joseph Silk'in 'Evrenin Kısa Tarihi' ve Metis Yayınlarından Charles Seife'nin 'Alfa ve Omega' kitaplarının yanında Türkçe'ye yeni bir etkileyici eser daha kazandırıldığını söyleyebiliriz.

1 yorum

15 Şubat 2017 Çarşamba

CERN'de neler oluyor?

CERN'deki çalışmalarda yer aldığımı duyan etrafımdaki insanların ilk sordukları sorulardan bazıları "Orada 'Büyük Patlama deneyi' yapıyorlardı değil mi, noldu o, hala devam ediyor mu?" ya da "Aradıkları bir 'Tanrı parçacığı' vardı hani, buldular mı? Eee buldularsa hala ne yapıyorlar" şeklinde oluyor. Büyük Hadron çarpıştırıcısı LHC (Large Hadron Collider) çalışmaya başladığında her yerde büyük ses getirmişti fakat sonrasında sonuçları ve ardından gelen çalışmaları aynı ölçüde bir etki yaratmadı belli ki. Aslında CERN'de hala çalışmaların devam ettiğini, hatta her şeyin beklenenin de üstünde bir performans sergileyerek 2017 için birçok yeni planlar yapıldığını; aynı zamanda CERN'de sadece çarpıştırma deneyleri değil yan taraftaki deneylerin de çok önemli sonuçlar elde ettiğine kısaca değinmek istiyorum.

Öncelikle Higgs parçacığı konusunu açığa kavuşturalım. 2012 yılındaki birbirinden bağımsız iki deney grubu olan ATLAS ve CMS tarafından keşfinin ardından, LHC'de çarpışmalar devam ediyor çünkü parçacığın keşfi ile bütün sorunlarımız halledilmiş değil maalesef. Higgs'in özelliklerinin parçacık fiziğinde bildiklerimizi ifade eden 'Standart Model' teorisi ile uyumluluğu, farklı farklı durumlar için nasıl davrandığı gibi sorular çarpışmaların enerjisi ve çarpışma sayılarının arttırılmasıyla incelenmeye devam ediliyor. Ayrıca LHC gibi müthiş büyüklükteki bir deneyin peşinde olduğu sorular yalnızca Higgs'den ibaret değil. Hali hazırda çarpışmalarda 'bildiğimiz fizik'ten farklı bir gözlem ile Standart Model'deki birçok problemi halledebilecek Süpersimetri teorileri, karanlık madde adayı parçacıkların araştırılması, evrenin ilk başlarındaki koşulları ifade eden Quark-Gluon plazmasının özellikleri, evrenin ilk anlarında madde ve anti-madde arasındaki bir simetri kırılması ile şu anda etrafımızda sadece 'madde'nin olmasını açıklamaya çalışan araştırmalar LHC'nin ajandasında yer alıyor.



LHC için 2016 rekorlara imza atılan bir yıldı. Çarpıştırıcının elde edebileceği çarpışma enerjileri her geçen yıl yapılan değişiklikler ve güncellemelerle aşamalı olarak arttırılmış ve 13 TeV'a kadar çıkmış bulunuyor (1 eV, bir elektronu 1 Volt elektrik potansiyel farkını kat ederek kazandığı enerjiye karşılık geliyor ve parçacık fiziğinde standart enerji birimi olarak kullanılıyor. 13 TeV ise $10^{12}$ eV.) Yılın yaklaşık %50'sinde aktif çarpışmalara devam eden LHC bu müthiş performansı ile 6.5 milyon kere milyar ($6.5 \times 10^{15}$) çarpışma kaydederek beklenin %60 fazlasına ulaştı. Bu çarpışma sayısı geçmişteki toplam üç çarpışma döneminde elde edilenin toplamından daha fazlasına karşılık geliyor. Tek kelimeyle rekor bir değer. Parçacık fiziğinde ne kadar fazla çarpışma elde ederseniz yapacağınız analizlerde de sonuçlarınız bir o kadar istatistiksel olarak anlamlı olur, yani aradığınız sinyali daha net gözleyebilirsiniz.

Proton-kurşun çarpıştırmalarında ATLAS dedektörünün elde ettiği verilerde en ağır kuark parçacığı 'top-kuark' ve anti parçacığı 'anti-kuark' elde edildi. 

Aralık ayında tamamlanan bu çarpıştırma döneminin hemen ardından, teknik aranın öncesinde dört hafta boyunca proton-proton çarpıştırmalarından farklı olarak 'kurşun-proton' çarpıştırmaları gerçekleştirildi. Bu çarpışmalar tipik proton-proton çarpıştırmalarından daha farklı bir dinamiğe sahipler ve bunun için de ayrı bir veri alım prosedürü takip ediliyor. Farklı kütledeki parçacıkları çarpıştırmak yanında birçok problemi de getiriyor. Her şeye rağmen bu çarpıştırmalarda da yine rekor sayıda çarpışma elde edilmiş bulunuyor. Proton-kurşun çarpışmaları parçacık fiziğinde 'ağır-iyon araştırmaları' olarak geçen ve ilk başta da bahsettiğim evrenin oluşumu sırasında çok yüksek sıcaklıklara karşılık gelen, proton ve nötronların yapıtaşları quark ve gluon'ların bir 'çorba' şeklinde olduğu plazma durumun özelliklerinin incelenmesinde büyük rol oynuyorlar.

2016 bu şekilde rekorlarla bitmişken, 2017'ye de büyük hedefler ve umutlarla girmiş durumda. Mart ayına kadar sürecek teknik arada dedektörlerin bakımları ve yükseltmeleri yapılıp, yeni çarpışmalar için hazırlanılacaklar. Öngörülen çalışmaları özetleyen CERN'ün genel direktörü Fabiola Gianotti'nin konuşmasını aşağıdaki videoda bulabilirsiniz.



CERN'deki çalışmalar LHC'den ibaret değil demiştik. Çarpıştırma fiziğinin dışında birbirinden farklı farklı yöntemler kullanarak birçok temel fizik problemine çözümler arayan onlarca grup daha bulunuyor CERN'de; özellikle son zamanlarda bu gruplar çok önemli sonuçlar elde etti gerçekten. Bunlardan öne çıkanlardan biri olarak ALPHA deneyinin ilk defa 'anti-hidrojen'in tayfını elde etmiş olması sayılabilir. Anti-hidrojen, bildiğimiz proton ve elektrondan oluşan hidrojen atomunun 'anti' hali, yani içerdiği parçacıkların tüm özellikleri aynı iken sadece yükleri tam tersi: çekirdeğinde eksi yüklü bir anti-proton, yörüngede de artı yüklü bir anti-elektron (pozitron) parçacığından oluşuyor. Bildiğimiz hidrojenin yükü değiştirilmiş simetrik hali diyebiliriz. Bu şekilde anti-parçacıklardan oluşan elementler elde etmek, anti-parçacıkların normal parçacıklarla bir araya geldiklerinde birbirlerini 'imha' ederek enerjiye dönüşmeleri nedeniyle hiç de kolay bir şey değil.

Alpha deney alanını gösteren bir görsel

Etraflarındaki madde ile etkileşmemeleri için çok güçlü tuzaklarla tutulan bu anti parçacıklarla oluşturulmuş anti-hidrojenin, yapılan çalışmada ilk defa tayfı ölçüldü. Yani elektronun yörüngesinde farklı farklı seviyeler arasında geçiş yaparken dışarı saldığı ışınım incelendi ve bunun normal hidrojeden belirgin ölçüde farklı olmadığı ortaya kondu. Bu problem çok önemli, çünkü madde ve anti-maddenin davranış olarak varsa birbirinden farklılıkları evrenin ilk başlangıcında yük korunumu nedeniyle oluşacak maddeye eşlik eden anti-maddeyi şu anda etrafımızda gözleyemiyor oluşumuzu açıklama potansiyeline sahip. Fizikte CP (charge-parity) - violation olarak adlandırılan ve evrenin başlangıcındaki bu durumu açıklamaya çalışan teoriler için bu tip deneyler büyük önem taşıyor.

CP-violation konusunda bu ay LHCb deneyinin elde ettiği sonuçları da bir kenara not etmek gerekir. Deney Nature Physics dergisinde, en iyi bildiğimiz üyeleri proton ve nötron olan 'baryon' adını verdiğimiz parçacık ailesinin anti-parçacıkları ile davranışları arasındaki farkları (yani simetri kırılmalarını) ortaya çıkardığını iddia eden sonuçlar yayınladılar. Geçmiş üç senenin LHC verilerini inceleyen ekip buldukları sonucun parçacık fiziğinde 'keşif' için gerekli $5 \sigma$ istatistiksel kriteri henüz sağlamıyor olsa da önümüzdeki yıllarda birikecek veri ile önemli bir keşfe doğru ilerlediği düşünülüyor.

Son olarak da çalışmalarına katkı koyduğum CAST deneyinde neler oluyor, ona değinelim. CAST deneyi geçtiğimiz hafta itibariyle KWISP dedektörü ile veri alımlarına başladı. KWISP - Kinetic Wisp Detector olarak geçiyor ve karanlık enerji adayı 'chameleon' adı verilen parçacıkları opto-mekanik bir yöntemle arıyor. Süpermıknatısın arkasına bu sefer X-ışını teleskobu ardına yerleştirilen dedektör sabah Güneş doğarken yaklaşık bir saat boyunca veri alıyor ve gün içerisinde de düzenli olarak 'arkaplan' verisi topluyor. Bir hafta daha sürecek veri alımının ardından dedektör üzerindeki geliştirmeler devam ederken ben de verilerin analiziyle uğraşıyor olacağım. Tez çalışmamın konusu olan bu dedektör ve CAST deneyi hakkında detaylı bilgi edinmek iiçin Türk Astronomi Derneği'nin yayınladığı Gökyüzü Bülteni'nin en yeni sayısını [Kasım-Aralık 2016] inceleyebilirsiniz.

KWISP opto-mekanik sensörü; ortada 'chameleon' parçacıklarının uyguladıkları kuvveti ölçecek ince bir zar, iki yanda girişimölçer için kullanılan aynalar yer alıyor.

CERN'de devam eden çalışmaları kısaca özetlemiş olduk. CERN'de bulunduğum süre boyunca da buradan kısa haberler paylaşmaya devam edeceğim. Geçen yaz her hafta CERN Günlükleri yazıları yazıyordum, bu sefer bu deneyimlerimi farklı bir amaçla kullanmak için şimdilik kendime saklıyorum, fırsat buldukça yine de güncellemeler paylaşmaya çalışacağım.

CERN'den selamlar!

Paylaş!

 

Copyright © 2010 Gök Günce | Blogger Templates by Splashy Templates | Free PSD Design by Amuki