Google ve Oxford araştırmacıları yapay zekayı değerlendirdi: 'İnsanları ortadan kaldırabilir'

Google'ın yan kuruluşlarından yapay zeka firması Deepmind ve Oxford Üniversitesi araştırmacıları, yapay zekanın gelecekte insanları ortadan kaldırabileceği sonucuna vardı. Araştırmacılar yapay zekanın son derece hızlı geliştirilmesinden endişe duyuyor.

Google ve Oxford araştırmacıları yapay zekayı değerlendirdi: 'İnsanları ortadan kaldırabilir'
Abone Ol google-news
Yayınlanma: 14.09.2022 - 17:49

Yıllar süren çalışmaların ardından bugün yapay zeka trafikte araç kullanabilir, ev işlerini üstlenebilir ve resim yaparak sanat yarışması kazanabilir hale geldi.

Bu durum, yıllar boyunca bilimkurgu eserlerine ilham veren soruyu daha da güçlendirdi: Yapay zeka insanlığı yok edebilir mi?

Araştırma ekibi, hakemli bilimsel dergi AI Magazine'de yayımladıkları yeni makalede bunun "muhtemel" olduğu sonucuna vardı.

"VAROLUŞSAL BİR FELAKET"

Independent Türkçe'nin aktardığı habere göre; makalenin başyazarı Michael Cohen, Twitter'da makaleyi açıkladığı tweet zincirinde, "Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel" ifadelerini kullandı.

Makalede yapay zekanın eğitiminde kullanılan "pekiştirmeli öğrenme" modeline odaklanıldı. Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.

Pekiştirmeli öğrenmede "etken" adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.

"BİZ YAPAY ZEKAYA ÇOK BÜYÜK BİR ÖDÜL VERDİK"

Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.

Modelin risklerine dikkat çekilen makalede, "Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz" ifadeleri yer aldı.

Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti. 

"POTANSİYEL TEHDİTLERİ ORTADAN KALDIRMAK İSTEYEBİLİR"

Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için "potansiyel tehditleri ortadan kaldırmak" isteyebilir. Bunun sonucunda insanlara zarar vermesi de muhtemel.

Makaleye göre bu durum, yiyeceklerini üretme veya ışıkları açık tutma gibi ihtiyaçlarla hareket eden insanlık ve ödülünü güvence altına almak için mevcut tüm kaynakları kullanabilecek süper gelişmiş makine arasında sıfır toplamlı bir oyuna dönüşecek:

"Bu oyunu kaybetmek ölümcül olur."

Araştırmacılara göre, bunu engellemenin tek yolu daha gelişkin bir yapay zeka hedefine doğru yavaş ve emin adımlarla ilerlemek.

VICE'a konuşan Cohen, "Yarışmanın anlamı yok. Yarışa girmek, onu nasıl kontrol edeceğimizi sandığımız bir yanlış anlamaya götürecektir" dedi:

"Mevcut bilgimizi göz önüne alırsak, yapay zekayı nasıl kontrol edeceğimizi anlamak için ciddi bir çalışma yapmadığımız sürece onu geliştirmemiz yararlı olmaz."


İlgili Haberler

Cumhuriyet Tatil Otel Rezervasyon

En Çok Okunan Haberler