Çin Odası Argümanı ve Bilgisayarların Anlama Yeteneği

Giriş

Günümüzde yapay zekâ önemli bir tartışma noktası ve teknolojik inovasyon konusu. Elbette yapay zekânın getirdiği yığınla sorun ve konu vardır, ancak benim bugün tartışmak istediğim şey çok daha temel bir konu: Sadece algoritmalara dayalı bir sistemin gerçekten anlayabilme yeteneği var mıdır? Bilgisayar bilimi ile zihin felsefesini birleştiren bir nokta olan yapay zekâ için bu sorunun cevabı yüksek bir önem taşır. Bu soruya cevap verebilmek için, zihin felsefecisi John Searle’ın 1980 yılında ortaya attığı “Çin Odası Argümanı”nı[1] sizlere anlatmaya ve aslında anlamanın beynin kendine has özelliklerine ait bir durum olduğunu savunmaya çalışacağım.

 

Bilgisayar, Zihin ve Searle’ın Argümanı

Bilgisayar zihin kuramı (computational theory of the mind), insan zihninin bilgisayar gibi çalıştığını varsayan bir kuramdır. Haugeland (2008) bilgisayarı, otomatik ve biçimsel bir sistemdir (automatic formal system).[2] Bu temel alındığı zaman, zihin, tıpkı bir bilgisayarın belli bir algoritmaya (daha fazlası için bkz. Kutlar, 2019) bağlı olarak sembolleri maniple etmesi gibi, manaya sahip gösterimleri (representations) belli başlı kurallara dayalı olarak maniple ederek çalışır. Searle, bu temele bağlı kalmak şartıyla; yönelimsellik (intentionality), anlama yeteneği ve bilince sahip olan bilgisayarlara ya da bir diğer değişle “güçlü yapay zekâ”ya (strong AI) karşı çıkar.

 

Searle’ın argümanı aslında oldukça basittir. Kendinizi bir odaya kilitlenmiş hâlde, Çince karakterlerin içinde bulduğunuzu hayal edin. Tabii ki Çince bilmiyorsunuz, Çince biliyorsanız deney komple bozulmuş olur hâliyle. Ardından size dışarıdan bir delik yardımı ile veya başka bir şekilde, Türkçe bir kullanma kılavuzu ile birlikte bir yığın Çince karakter daha verildiğini düşünün. Bu ikinci yığın, kılavuz sayesinde ilk yığın ile ilişki kurmanızı sağlayacaktır. Karakterler Searle’a göre “biçimseldir,” yani onları şekillerinden tanıyabilirsiniz. Ardından size üçüncü bir karakter yığını ve farklı bir Türkçe kılavuz verildiğini düşünün. Bu kılavuz, üçüncü yığındaki karakterlere ilk iki yığındaki karakterleri kullanarak cevap vermenizi sağlayacaktır. Odanın dışında sizi gözlemleyen insanlar, ilk yığına “alfabe”, ikinci yığına “hikâye”, üçüncü yığına ise “sorular” diyorlar. Kılavuzlar ise “programı” oluşturuyor. Üçüncü yığına karakterleri kullanarak verdiğiniz tepkiler ise sizin “cevaplar”ınız oluyor.

 

Bunun yanında (Searle’ın argümanını takiben) size Türkçe bir hikâye verildiğini ve Türkçe cevaplar verdiğinizi düşünün. Zamanla her iki senaryoda da bayağı başarılı olduğunuzu ve programcıların (sizi gözleyen insanlar) da çok iyi program yazdığını düşünün; öyle ki cevaplarınız neredeyse anadili Çince olan biri ile aynı. Aslında bakıldığı zaman hem Türkçe hem de Çince senaryoda cevaplarınız eşit derecede iyi. Ancak Searle’a göre siz Çince senaryoda sadece şekilleri maniple ediyor, “gerçek bir anlayış” göstermiyorsunuz. Dolayısıyla, Searle’a göre sadece bir algoritmayı şekil manipülasyonu ile uygulamak, anlamak için yeterli değildir; dolayısıyla da “güçlü yapay zekâ” önermesi yanlış bir önermedir. Ancak burada altını çizmek gerekir ki “zayıf yapay zekâ” yani algoritmaları kullanarak insanlardan daha iyi işlem yapabilen ve bizleri taklit edebilen bilgisayarlara bir itiraz bu noktada söz konusu değildir; asıl nokta bilgisayarların sadece algoritma uygulamasıyla bir anlayış geliştirerek zihin hâline gelemeyecekleridir.

 

İtirazlar ve Cevaplar

Searle’ın argümanına birçok itiraz gelmiştir yıllar boyunca. Bunlardan bir tanesi “sistem itirazı”dır. Yani Searle’ın senaryosundaki birey anlayıştan yoksun olsa da tüm sistemin bir anlama yeteneğine sahip olduğudur. Aslında bu pek de mümkün gözükmüyor. Bir insan artı bir kitap, anlama yeteneği doğurmaz. Sistemin içinde olup da adamın içinde olmayan hiçbir şey yoktur Searle’a göre ve adam tüm sistemi içselleştirse bile anlama yeteneğinden mahrum kalacaktır. Bunun için matematik sorularına verdiğimiz cevapları düşünebiliriz, zira sadece ezber yeterli değildir. Örneğin, bir matematik sorusunu, cevaba ulaşan her basamağı ezberleyerek çözdüğünüzü düşünün. Bu sizin o soruyu anladığınızı göstermeyecektir; zira bunu diğer sorulara uygulayacak anlamdan yoksunsunuzdur, sadece soruya giden cevabı ezberlersiniz. Burada amaç sizin soruyu tamamen anlayarak benzer senaryolara uygulayabilmenizdir. Eğer soruyu tamamen anlamış olsaydınız, aynı sonuca farklı metotları kullanarak da ulaşabilirdiniz. Kullandığınız “sembollerin” sizin için manası olacaktı ve bunun için bir kılavuza ihtiyaç duymayacaktınız.

 

Bir diğer itiraz ise “robot itirazı”dır. Buna göre algı ve hareket gibi şeyler anlamak için gereklidir, dolayısıyla bedene sahip bir robot bu senaryoda anlam yeteneğini gösterecektir. Ancak bu Searle’a göre, haklı biçimde, “otomatik biçimsel bir sistem” tarafından sadece sembol manipülasyonu yapılarak anlamanın mümkün olmadığını kanıtlayan bir savdır, zira sistem anlam geliştirmek için başka şeylere ihtiyaç duymaktadır.

 

Son olarak inceleyeceğim itiraz ise Sprevak’ın (2007) itirazıdır.[3] Sprevak’a göre Çin Odası Argümanı her programı işletemez, zira anlayış bir makinenin yapısına (architecture) bağlıdır. Bu bana göre Searle’ın öne sürdüğü ve benim de katıldığım, anlamanın beynin “nedensel ilişkileri”ne (causal relations) bağlı olduğunu öne süren tezi haklı çıkarır. Zira anlama yeteneğinin oluşabilmesi için her seferinde makinenin yapısının değişmesi gerekirse, bu durumda sadece sembol manipülasyonunun otomatik biçimde bir algoritmaya bağlı olarak gerçekleşmesini anlamak için yeterli sayamayız. Beyni ele aldığımız zaman bu durumda bir makine “anlayabilmek” için beynin yapısını ve organizasyonunu kopyalamalıdır; ki bu bile zihnin bir bilgisayar gibi çalıştığını göstermekten çok bilgisayarın beyin gibi çalıştığını gösterir.

 

Sonuç

Yıllarca ortaya atmış olduğu kısa bir argümanla yapay zekâ araştırmalarını sarsan Searle’ın pozisyonu eleştirilere rağmen ayakta kalmayı başarmıştır. Searle bize sadece sembol manipülasyonu yaparak anlama yeteneğinin geliştirilemeyeceğini göstermiş ve aslında beynin nedensel ilişkilerinin önemini vurgulamıştır. Her ne kadar yapay zekâ hakkında heyecanlanan bir insan olsam da, Searle’ın sunduğu sebeplerden ötürü gerçekten yapay bir “zihin” üretilebileceği konusunda oldukça şüpheli olduğumu belirtmek isterim.

 


 

Kaynakça

[1] Searle, J. R. (1980). “Minds, brains, and programs.” Behavioral and Brain Sciences 3, no. 3 (September): 417-24.

[2] Haugeland, J. (2008). “Semantic Engines: An Introduction to Mind Design.” Mind and Cognition: An Anthology, eds. William G. Lycan and Jesse J. Prinz, 195-212. Oxford: Blackwell Publishing.

[3] Sprevak, M.D. (2007). “Chinese Rooms and Program Portability.” The British Journal for the Philosophy of Science 58, no. 4 (December): 755-776.

 

Fotoğraf için tıklayınız.

Yorum bırakın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir