Apple çocuk istismarına karşı telefonları tarama planını askıya aldı
Teknoloji devi Apple, açıklandığı günden beri büyük tepki çeken ve tartışmalara yol açan çocuk istismarına karşı telefonları tarama planını askıya aldı.
ABD'li teknoloji şirketi Apple, iPhone’larda çocuk istismarına karşı hassas görselleri yapay zeka ile tarama planlarını, gelen eleştiriler üzerine askıya aldı.
Apple, internet sitesinden yaptığı açıklamada, çocukların iletişim araçları ile cinsel istismarını ve bu tür malzemelerin yayılmasını önlemek için geliştirdikleri özelliklerin kullanıma girmesini, müşterilerden, araştırmacılardan ve hak savunucusu kuruluşlardan gelen yorumlar üzerine ertelediklerini belirtti.
Açıklamada, sistemin tamamen masadan kaldırılmadığı, ancak eleştiriler doğrultusunda geliştirebilmek için lansmanın ertelendiği vurgulandı. Ancak özelliklerin ne zaman devreye girebileceğine ilişkin bilgi paylaşılmadı.
TARTIŞMALARA NEDEN OLMUŞTU
Apple’ın geçen ay kullanıcıların iCloud içeriklerini çocuk istismarı içeren görüntü ve videolara karşı tarayacağını açıklaması, şirketin kişisel gizlilik politikalarıyla çeliştiği için tartışmalara neden olmuştu.
Apple çocuk istismarına karşı aldıkları üç aşamalı önlemlerin ilk aşamasında, yapay zeka teknolojileri sayesinde özel yazışmaları görüntülemeden, yalnızca CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapacağını açıklamıştı.
Söz konusu sistem, çocuk istismarı ile ilgili şüpheli görselleri, gerçek kişilerin incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacaktı.
En Çok Okunan Haberler
- Futbolda pis kokular yükseliyor
- CHP’de çelişen başkanlara uyarı
- AKP’li vekilin PKK yöneticisiyle fotoğrafı gündem oldu!
- 'Erdoğan bize göre tek seçenektir'
- TÜPRAŞ'ta patlama: 12 kişi yaralandı
- Serdar Ortaç son malını da satışa çıkardı!
- 'Atatürk ile Cumhuriyet ile bayrak ile...'
- Hekimlerin istifaları hızlandı
- İşte sıfır faizli kredi veren bankalar…
- 'Erken seçim' çağrısı: CHP tarih verdi