Apple çalışanları, çocukların güvenliği için sunulan güncellemeden rahatsız

BarnaBi

Global Mod
Global Mod
Apple çalışanları, çocukların güvenliği için sunulan güncellemeden rahatsız Geçtiğimiz günlerde Apple, çocuk istismarlarının önüne geçmek için iOS ve iPadOS aygıtların iCloud’larında bulunan fotoğrafların yapay zeka sayesinde taranacağını ve sakıncalı malzemeleri tespit edeceğini duyurmuştu. Gereç tespit edildiğinde Apple, kâr gayesi gütmeyen Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi‘ne (NCMEC) otomatik olarak bildirimde bulunacak. NCMEC, ABD’deki kolluk kuvvetleri ile ortaklaşa hareket eden bir kuruluş.

Baskıcı hükümetler bu özelliği istismar edebilir

Belirtilmemiş sayıdaki Apple çalışanı, CSAM (Child Sexual Abuse Materials) tespiti konusundaki tasalarını lisana getirmek için Slack kanallarına başvurdu. Çalışanlar bilhassa, hükümetlerin Apple’ı CSAM haricindeki içerikleri bulmak için kullanabileceği ve zorlayabileceği konusunda kaygı duyuyor. Birtakım çalışanlar, Apple’ın dalda başkan pozisyonda olan zımnilik prestijine ziyan vermesinden çekiniyor.

Reuters’in raporuna bakılırsa; “Kimliğinin açıklanmamasını isteyen çalışanlar Reuters’e verdiği demeçte, Apple çalışanlarının bir hafta evvel açıklanan planla ilgili 800’den çok iletiyle Apple’ın dahili Slack kanalını doldurduğunu belirtti. Günlerce süren tartışmayı dahil olan çalışanlara bakılırsa, bir fazlaca kişi sansür yahut tutuklamalar için öbür gereçler arayan baskıcı hükümetler tarafınca bu özelliğin istismar edilebileceğine dair telaşlarını lisana getirdi.


Çalışanlar, geçmişteki Apple güvenlik değişikliklerinin de çalışanlar içinde tasa uyandırdığını, lakin yeni tartışmanın hacminin ve müddetinin şaşırtan olduğunu söylemiş oldu.”

Rapora bakılırsa, kullanıcı güvenliği ile ilgili rollerdeki Apple çalışanlarını protestonun bir modülü olmadığı düşünülüyor.

Geçen hafta duyurulmasından bu yana, Apple, bu sonbaharda iOS 15 ve iPadOS 15 ile piyasaya sürülmesi beklenen CSAM algılama planları niçiniyle tenkit yağmuruna tutuldu. Telaşlar, temel olarak, süratle gelişen teknolojinin baskıcı hükümetler ve rejimler tarafınca gelecekteki uygulamalar için kullanılabileceği formunda sürüyor.

Apple, CSAM gerecini tespit etmek için kullanılan aygıt teknolojisinin öbür rastgele bir emel için kullanılabileceği fikrine mutlaka karşı çıkıyor. Bir de yayınlanan SSS dokümanında Apple, şiddetle hükümetler tarafınca bu çeşit bir talebi reddedeceğini belirtiyor.