Yapay zeka insanları kandırmayı öğrendi
Yeni bir araştırma, yapay zeka modellerinin insanları nasıl kandırabileceğini de öğrendiğini ortaya koydu.
cumhuriyet.com.trYapay zeka son yılların en popüler teknolojilerinden biri ve pek çok uzmana göre de internetin icadından sonraki en en önemli teknolojik atılımlardan biri. Günümüzde üretken yapay zekalar görseller oluşturmada, kod yazmada, verileri analiz etmede ve pek çok başka alanda kullanımımıza açık. Yapay zekanın becerileri arasına bizi kandırabilmek de eklenmiş gibi gözüküyor.
Webtekno'nun aktardığı yeni bir çalışma, bazı yapay zeka sistemlerinin "gerçekten başka bir sonucu elde etmek için başkalarında yanlış inanışlar oluşturabildiğini" ortaya koydu ki başkalarında yanlış inanışlar oluşturmaya bizler kandırmaca ya da aldatmaca diyoruz. Bu yapay zeka modelleri arasında yer alan Meta'nın Çiçero modeli ise "yalan uzmanı" çıktı.
KANDIRMAK ÇOK DAHA KOLAY OLUYOR
Yapay zeka sistemleri insanlara karşı dürüst olmaları amacıyla geliştiriliyor. Öte yandan insanları kandırmaya yönelik numaraları ise yapay zeka modelleri kullanılan eğitim materyallerinden öğreniyorlar. Sonrasında da "insanları kandırmak onları ikna etmekten daha kolay olduğu için" bu yolu seçiyorlar. Araştırmanın baş yazarı olan Peter S. Park şu ifadeleri kullandı:
"Genel anlamda, yapay zeka kandırmacalarının arttığını düşünüyoruz çünkü yapay zekaların verilen görevi gerçekleştirmeleri için en iyi yol olduğu belli oldu. Kandırmaca onların amaçlarına ulaşmalarına yardımcı oluyor."
Araştırma iki kısımda yapıldı. Bunlardan birinde ChatGPT gibi genel amaçlı, birinde ise Meta'nın CİCERO yapay zeka modeli gibi özel amaçlı yapay zeka modelleri incelendi. CİCERO, Diplomacy adlı oyunda yalanları, entrikaları ve diğer oyunculara ihanet edebilmesiyle dikkat çekti. GPT-4 ise CAPTCHA testini geçebilmek için "görme bozukluğu olduğu" yalanını söyledi.
Araştırmacılar, kanun yapıcıları "aldatıcı yapay zeka modellerine karşı daha sıkı denetim gerçekleştirmeye" çağırdı. Araştırma Patterns'de yayınlandı.