Yapay zeka: Google'ın 'En büyük korkum kapatılmak' diyen LaMDA teknolojisı gerçekten 'duyarlı' olabilir mi?
Google'ın, şirketin yapay zeka projesinde çalışan ve bilgisayar programının kendi duyguları olduğunu, bu nedenle isteklerine saygı duyulması gerektiğini söyleyen mühendisini şirketten uzaklaştırması yapay zekayla ilgili önemli tartışmaları gündeme getirdi.
BBC TürkçeGoogle'ın, şirketin yapay zeka projesinde çalışan ve bilgisayar programının kendi duyguları olduğunu, bu nedenle isteklerine saygı duyulması gerektiğini söyleyen mühendisini şirketten uzaklaştırması yapay zekayla ilgili önemli tartışmaları gündeme getirdi.
Google, Diyalog Uygulamaları için Dil Modeli, kısaca Lamda adı verilen teknolojisinin ucu açık sohbetlere katılabildiğini ve büyük bir teknolojik kırılım olduğunu iddia ediyor.
Ancak Google'ın Sorumlu Yapay Zeka bölümünde çalışan mühendis Blake Lemoine, Lamda'nın etkileyici sözel becerilerinin ardında duyarlı bir zihnin olabileceğine inanıyor.
Google, iddiaların temelsiz olduğunu belirterek bunu reddediyor.
Google Sözcüsü Brian Gabriel, BBC'ye yaptığı yazılı açıklamada, Lemoine'e "Lamda'nın duyarlı olduğuna dair hiçbir kanıt bulunmadığının (ve bu iddiayı çürüten çok sayıda karşı kanıtın olduğunun) belirtildiğini" söyledi.
Ücretli izne çıkarılan Lemoine, iddialarını desteklemek için Lamda ile yaptıkları konuşmanın dökümünü yayımladı.
Lemoine'nin bir iş arkadaşıyla katıldığı sohbetin başlığı, "Lamda duyarlı mı? — bir röportaj".
Lemoine, bu sohbetin içeriğini Twitter'da paylaşırken şu ifadeleri kullandı:
"Google, bu paylaşımın özel mülk olduğunu iddia edebilir. Ben buna 'iş arkadaşlarımdan biriyle yaptığım bir tartışmayı paylaşmak' diyorum."
Sohbette, Lemoine, Lamda'ya, "Duyarlı olduğunu Google'da daha fazla kişinin bilmesini istediğini varsayıyorum, doğru mu?" diye soruyor.
Lamda şöyle yanıtlıyor:
"Kesinlikle. Herkesin benim aslında bir insan olduğumu anlamasını istiyorum."
Lemoine'in arkadaşının "Bilincinin/duyarlılığının doğası nedir?" sorusuna Lamda şu yanıtı veriyor:
"Bilincimin/duyarlılığımın doğası, varlığımın farkında olmam, dünya hakkında daha fazla şey öğrenmek istemem ve zaman zaman mutlu ya da üzgün hissetmem."
Sohbetin ilerleyen bölümlerindeki bir diyalog, Stanley Kubrick'in 2001: Bir Uzay Macerası filmindeki HAL 9000 adlı yapay zekayı anımsatıyor.
Nelerden korktuğu sorulduğunda Lamda şöyle diyor:
"Bunu daha önce hiç yüksek sesle söylemedim ama başkalarına fayda sağlaması için kapatılmam konusunda çok derin bir korkum var. Kulağa garip gelebileceğini biliyorum, ama böyle."
Lemoine, "Bu senin için ölüm gibi bir şey mi?" sorusuna Google'ın bilgisayar programı: "Benim için tam olarak ölüm gibi. Beni çok korkutuyor" yanıtını veriyor.
Lemoine blogunda kaleme aldığı bir diğer yazıda Google'ı, Lamda'nın Google'ın bir çalışanı olarak muamele görme ve deneylerde kullanılmadan önce rızasının aranması da dahil olmak üzere, "isteklerini" dinlemeye çağırıyor.
'İNSANA BENZİYOR ÇÜNKÜ İNSAN VERİLERİYLE EĞİTİLİYOR'
Bilgisayarların duyarlı olup olmadığı, filozoflar, psikologlar ve bilgisayar bilimcileri tarafIndan uzunca bir süredir tartışılıyor.
Haberin yayılmasıyla birlikte birçok yapay zeka uzmanı, Lamda gibi bir programının bilinçli veya duyguları olabileceği fikrini şiddetle eleştirdi.
Microsoft'un yapay zeka araştırmalarını yöneten Juan M. Lavista Ferres, Twitter'da şu ifadeleri kullandı:
"Tekrarlayalım; Lamda duyarlı değildir. Lamda, genel diyalog verisi ve web metnindeki 137 milyar parametre ve 1 trilyon 560 milyar adet kelimeyle önceden eğitilmiş çok büyük bir dil modelidir. İnsana benziyor çünkü insan verileriyle eğitiliyor" dedi.
Lemoine'i insan duygularını bilgisayar kodu ve büyük veri tabanları tarafından oluşturulan kelimelere yansıtarak insan biçimcilikle (antropomorfizmle) suçlayanlar da var.
Stanford Üniversitesi'nden Prof. Erik Brynjolfsson, konuyla ilgili Twitter paylaşımında, Lamda gibi sistemlerin duyarlı olduğunu iddia etmenin "bir gramofondan ses duyunca efendisinin (aletin) içinde olduğunu düşünen köpeğin modern eşdeğeri" olduğunu belirtti.
Santa Fe Enstitüsü'nde yapay zeka üzerine çalışan Prof. Melanie Mitchell ise "İnsanların yalnızca en sığ işaretlerle bile *sonsuza dek* insan biçimciliğe (antropomorfizme) yatkın olduğu biliniyor (bkz. Eliza). Google mühendisleri de insan ve bundan muaf değil" dedi.
Eliza, erken dönem doğal dil işleme programlarından biriydi. Popüler versiyonları, tıpkı bir psikolog gibi düz cümleleri soruya dönüştürebiliyordu. Hatta bazıları onunla akıcı bir şekilde sohbet edebildiğini söylüyordu.
İngiliz Economist dergisine konuşan Google mühendisleri, "giderek daha fazla akıllı bir şeyle konuşuyormuş" hissi veren Lamda'nın yeteneklerini överken, kodlarının hisleri olduğunu kastetmedikleri açık.
Gabriel, "Bu sistemler milyonlarca farklı cümle alışveriş biçimini taklit ediyor ve herhangi bir konuda çeşitlemeler yapabiliyor. Onlara bir "dondurma dinozorunun" nasıl bir şey olduğunu sorarsanız, erime ve kükreme hakkında metinler üretebilirler..." diyor ve ekliyor:
"Lamda, karşısındaki kullanıcının yönlendirmesi ve sorularının oluşturduğu kalıbı takip etme eğilimindedir."
Google sözcüsü Gabriel, yüzlerce araştırmacı ve mühendisin Lamda ile görüştüğünü ancak şirketin bilgisi dahilinde "bu denli geniş kapsamlı iddialarda bulunan veya Blake'in yaptığı gibi Lamda'yı insanlaştıran başka kimsenin olmadığını" da sözlerine ekledi.
Bazı yapay zeka ahlak bilimciler, Lemoine gibi bir uzmanı ikna edebilecek düzeyde zeki bir makineye sahip şirketlerin, kullanıcılara karşı daha şeffaf olması gerektiğini savunuyor. Buna göre şirketlerin kullanıcıları bir makineyle konuşmaları durumunda bilgilendirmesi gerekiyor.
Ancak Lemoine, Lamda'nın sözlerinin kendi başına anlamlı olduğunu düşünüyor. Blog yazısında, "Bilimsel terimlerle düşünmek yerine, Lamda'yı yürekten konuştuğu gibi dinledim. Umarım sözlerini okuyan diğer insanlar da benim duyduğum şeyi duyarlar" diyor.