
DeepMind Bilim İnsanından Sert Çıkış: Yapay Zeka Asla Bilinçli Olamaz
Yapay zeka bilinç tartışması, Google DeepMind bünyesindeki kıdemli bilim insanı Alexander Lerchner’in yayımladığı yeni makaleyle bambaşka bir boyuta taşındı. “The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness” başlığını taşıyan çalışma, ne kadar gelişirse gelişsin hiçbir yapay zeka sisteminin gerçek anlamda bilinç sahibi olamayacağını öne sürüyor. Lerchner’in bu çıkışı, özellikle son dönemde yapay genel zekanın (AGI) yakın olduğunu savunan teknoloji liderlerinin söylemleriyle taban tabana zıt bir tablo çiziyor.
Soyutlama Yanılgısı: Hesaplama Bilinç Yaratmaya Yetmez
Lerchner’in makalesinin merkezinde soyutlama yanılgısı (abstraction fallacy) adını verdiği kavram yer alıyor. Bu kavram, hesaplamanın tek başına bilinç üretebileceği varsayımının temelden hatalı olduğunu ortaya koyuyor. Yazara göre, hesaplama dediğimiz şey fiziksel dünyanın kendiliğinden var olan bir özelliği değil; aksine, dünyayı anlamlandıran bir öznenin varlığına bağımlı bir soyutlama biçimi. Bir yapay zeka modelinin anlamlı çıktılar üretebilmesi için, önce bir insanın dünyayı kategorilere ayırması, veriyi etiketlemesi ve sisteme anlamlı kalıplar sunması gerekiyor. Lerchner bu durumu, “haritacıya bağımlılık” (mapmaker-dependent) ifadesiyle özetliyor.
Makale, mevcut büyük dil modellerinin çalışma prensibine de ayna tutuyor. Bu sistemler devasa veri havuzlarından besleniyor, ancak kendi başlarına anlam inşa etme kapasitesinden yoksunlar. Onlar sadece sabit veri kalıplarını işleyip görev tamamlandığında duran araçlar. İçsel bir motivasyon geliştirmeleri, kendilerini koruma içgüdüsü duymaları ya da varoluşsal bir ihtiyaç hissetmeleri mümkün değil.
Bilinç Yazılımsal Değil, Fiziksel Bir Durumdur
Çalışmanın belki de en iddialı tezi, fenomenal bilincin fiziksel bir durum olduğu ve bir yazılım ürünü olarak ortaya çıkamayacağı yönünde. Lerchner burada simülasyon ile somutlaştırma (instantiation) arasına kalın bir çizgi çekiyor. Yapay zeka sistemleri bilinçli davranışları taklit edebilir, duygusal tepkiler veriyormuş gibi görünebilir, hatta felsefi sohbetlere girebilir. Ancak bütün bunlar, gerçek bir öznel deneyimin varlığı anlamına gelmiyor. Lerchner’in deyimiyle, bir sistemi simüle etmek başka şeydir, onu cisimleştirmek başka şey.
Bu yaklaşım, hesaplamalı işlevselcilik (computational functionalism) olarak bilinen ve bilincin doğru türde bir bilgi işlemeyle her türlü fiziksel altyapıda ortaya çıkabileceğini savunan hâkim görüşe doğrudan bir meydan okuma niteliğinde. Lerchner, bilincin biyolojik yapıya özel olduğunu söylemiyor; ancak yapay bir sistem bilinçli olacaksa bunun sentaktik mimarisinden değil, spesifik fiziksel yapısından kaynaklanacağını vurguluyor.
AGI Mümkün Ama Bilinçsiz Olacak
Lerchner’in çalışmasıyla ilgili en çarpıcı ayrıntılardan biri, yapay genel zekayı (AGI) tamamen reddetmemesi. Başka bir ifadeyle, insan seviyesinde ya da daha üstün bir yapay zeka geliştirilebilir. Ancak bu sistem, tüm yeteneklerine rağmen bilinç sahibi olmayacak. Bu ayrım, geleceğin süper zeki yapay zekalarının ahlaki statüsü ve hakları konusunda şimdiden önemli bir tartışma zemini yaratıyor. Eğer bir sistem bilinçli değilse, ona karşı etik yükümlülüklerimiz de bir insana ya da bir hayvana karşı olan yükümlülüklerimizden tamamen farklı olacak.
Akademik Dünyadan İlk Tepkiler: Hem Destek Hem Eleştiri Var
Lerchner’in makalesi akademik çevrelerde şimdiden hararetli bir tartışma başlatmış durumda. Evrimsel sistem biyoloğu Johannes Jäger, çalışmanın vardığı sonuçlara katılmakla birlikte, benzer argümanların felsefe ve biyoloji literatüründe yıllardır tartışıldığını ve Lerchner’in bu birikime yeterince atıf yapmadığını ifade ediyor. Goldsmiths Üniversitesi’nden Mark Bishop ise makaledeki argümanların yüzde 99’una katıldığını ancak bütün bu fikirlerin yıllar önce ortaya atıldığını belirtiyor.
Öte yandan makale, hesaplamalı işlevselciliğe karşı fiziksel temelli bir çerçeve sunarak alandaki belirsizliği gidermeye çalışıyor. Bazı felsefeciler, Lerchner’in “soyutlama yanılgısı” kavramının aslında Husserl’in “gizli ikame” (surreptitious substitution) eleştirisiyle ve The Blind Spot gibi modern eserlerle paralellik taşıdığını düşünüyor. Lerchner de LinkedIn üzerinden yaptığı paylaşımda bu bağlantıyı doğruluyor ve öznel deneyimin soyutlama öğreniminin bir sonucu değil, ön koşulu olduğunun altını çiziyor.
CEO Söylemleri ile Bilimsel Gerçeklik Arasındaki Makas Açılıyor
Lerchner’in bu çıkışı, DeepMind CEO’su Demis Hassabis’in AGI vizyonuyla karşılaştırıldığında şirket içinde bile ne kadar farklı görüşlerin bulunduğunu gözler önüne seriyor. Hassabis kısa süre önce yaptığı bir açıklamada, AGI’nin “Sanayi Devrimi’nin etkisinin yaklaşık on katı olacağını ve on kat daha hızlı gerçekleşeceğini” söylemişti. Aynı çatı altında çalışan iki üst düzey ismin bu denli zıt kutuplarda durması, yapay zeka endüstrisindeki stratejik iletişim ile bilimsel titizlik arasındaki makasın giderek açıldığını gösteriyor.
Hassabis, AGI’nin beş ila on yıl içinde ortaya çıkacağını tahmin ederken, Lerchner’in makalesi bu tür tahminlerin felsefi temellerini sorguluyor. Bir başka deyişle, yapay zekanın yetenekleri hızla artıyor olabilir; fakat bu yetenek artışı, bilinç sıçraması anlamına gelmiyor.
Peki Bundan Sonra Ne Olacak?
Bu makale, yapay zeka araştırmalarının belki de en can alıcı sorusunu yeniden masaya yatırıyor: Zeki olmak ile bilinçli olmak aynı şey değilse, biz tam olarak neyin peşindeyiz? Lerchner’in çizdiği çerçeve, AGI’nin etik ve hukuki boyutlarını değerlendirirken bilinç sorusunun masanın en kritik başlığı olarak kalacağını gösteriyor. Önümüzdeki aylarda bu makaleye gelecek yanıtlar, yapay zeka felsefesinin rotasını belirleyecek gibi görünüyor. hedefbilgitoplumu.com
