Apple'a çocuk istismarı içeriği davası
Apple, iCloud'da çocuk istismarı içeriğini tespit etme sistemini uygulamaması nedeniyle dava ediliyor. Davada içeriklerin taranıp kaldırılmaması sebebiyle mağdurların travmalarını yeniden yaşadığı yönünde iddialar yer alıyor
ABONE OLApple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Dava, Apple'ın bu materyalin yayılmasını önlemek için daha fazla çaba göstermemesi nedeniyle mağdurların travmalarını yeniden yaşamaya zorlandığını iddia ediyor. Apple, 2021 yılında bu sistemi duyurmuş, ancak güvenlik ve gizlilik savunucularının hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle bu planları uygulamayı bırakmıştı.
Yazı Boyutua
Yazı Boyutua
GÜNÜN ÖNEMLİ MANŞETLERİ