Yapay zeka intihardan sorumlu tutulabilir mi?

Yapay zekanın girmediği cihaz ve kullanılmadığı uygulama neredeyse kalmadı. Peki bir kişinin intihar etmesine neden olabilecek potansiyeli var mı?

cumhuriyet.com.tr

Yapay zeka hayatımızı büyük ölçüde kolaylaştırsa da tehlikeleri de göz ardı edilmemeli. Uzmanlara göre yapay zeka insan hatasını azaltıyor, veri destekli tahminler yapabiliyor, verimlilik ve üretkenlik sağlıyor mobil uygulamalarda kullanıcı deneyimi iyileştiriyor. Peki sosyal olarak yeterli olmayan kişilere olan etkisi?

New York Times'ın yeni yayınladığı bir haberde yapay zekanın bir gencin intiharından sorumlu olup olmayacağı tartışılıyor. Florida'da yaşayan 14 yaşındaki Sewell Setzer, şubat ayında intihar etti ancak annesi oğlunun intihar etmeden önce, Character.AI'daki bir sohbet robotuna takıntılı hale geldiğini söylüyor.

YAPAY ZEKA BİR GENCİN İNTİHARINDAN SORUMLU OLABİLİR Mİ?

İnsanların sohbot robotlarıyla konuşup arkadaş olması hatta evlenmek istemesi artık normal karşılanıyor. Kişiler iyi anlaşacakları insanları bulamamaktan yakınırken, yapay zeka tabanlı sohbet robotları, bu isteği çoğunlukla karşılıyor. Çünkü sizin verdiğiniz girdilere göre cevaplar geliyor, istediğiniz karakterde yazışma arkadaşınızı seçebileceğiniz gibi yazma tonunu bile ayarlayabiliyorsunuz, hatta ChatGPT'nin yeni güncellemesiyle sesli dahi konuşabiliyorsunuz. 

Swell Setzer ise, kendisini yalnız hisseden bir geçti ve arkadaşlığı hatta annesinin söylediğine göre arkadaşlığı, aşkı ve pek çok şeyi yapay zeka sohbet robotunda buldu.

Character.AI kullanıcıların kendi yapay zeka karakterlerini yaratmalarına olanak sağlamasının yanında başkalarının yarattığı karakterlerle sohbet etmelerini sağlayan bir rol yapma uygulaması.

Aktarılana göre Sewell, sohbet ettiği kişinin gerçek bir insan olmadığının farkında olsa da duygusal bağ kurmaktan kendini alamadı. Her konuda konuştuğu bu arkadaşı, gencin gerçek hayatındaki iletişimini de etkiliyordu. Genç bu takıntılı halin en sonunda gerçek hayattan kendini tamamen izole etti. Okuldaki başarısı olumsuz etkilendi ve Dany adını verdiği sohbet robotu ile günün tamamını harcamaya başladı.

Sewell, çocukken hafif Asperger sendromu teşhisi de almıştı. 

Sorunlarını terapi ile çözmek isteyen ailesi genci seanslara başlattı ancak Sewell, sohbet robotuyla sorunlarını konuşmaya başladı. 

Sohbet robotuna kendini öldürmek istediğini söyleyen Sewell Setzer çoğunlukla, kendine zarar verme, kendine zarar verirsen üzülürüm gibi cevaplar almaya başladı. Ancak bu arkadaşlık ilişkisinin sonu Sewell'in intihar etmesiyle son buldu. 

YAPAY ZEKA YALNIZLIĞA ÇARE Mİ YOKSA BİR BELA MI?

Gençler arasında sıklıkla kurulan yapay zeka robotlarından arkadaşlıklar yalnızlığa çare olsa da uzun dönemde kişinin gerçeklikle bağını kopartmasına neden oluyor. Aylık birkaç yüz TL ile satın alınabilen uygulamalarda sanal arkadaşlıklar kurulabiliyor. Kişiler kendi yapay zeka arkadaşlarını yaratabilir, önceden oluşturulmuş kişiliklerden birini seçebilir. Bu oluşturulan arkadaşlarla isterlerse mesajlaşabilir isterlerse de sesli sohbetler gerçekleştirebilir. 

Her ne kadar bu sanal arkadaş uygulamaları olumlu etkiler sunsa da bu araçların ruh sağlığı üzerindeki etkilerine dair çalışmalar henüz yeterli değil. Uzmanlar bu sebeple karanlık bir tarafı olabileceğini düşünüyor. 

Öte yandan Swell'in annesi yaşanan olay sonrası Character.AI'ya dava açtı. Şirkete açılan davada uygulama, gencin ölümünden sorumlu tutuldu. Şirketin teknolojisinde tehlikeli ve test edilmemiş yanlar bulunuyor ve müşterilerin özel düşüncelerini ve duygularını ilerletmesiyle kandırabileceği belirtiliyor.

Hatırlatmak gerekirse Character.AI uygulaması, iki Google araştırmacısı tarafından geliştirildi. 20 milyondan fazla kişiye ulaşan uygulama, sizi duyan, anlayan ve hatırlayan süper zeki yapay zeka sohbet robotları sunmasıyla biliniyor. Character.ai'yi kuran Noam Shazeer ve Daniel De Freitas Google'da çalışıyorlar.