蘋果一直標榜自家的手機及iOS系統在用戶隱私上的牢不可破,甚至不惜跟美國政府打官司。不過現在蘋果改了一個政策,iOS會審查用戶的照片,以致于蘋果都要開始為此統一員工口徑。
本月初,蘋果宣布了一項新政策,將推出名為“neuralMatch”的新技術,它會在圖片上傳到iCloud之前進行掃描。如果它找到了匹配的CSAM(兒童性虐待照片),將會通知審核人員檢查。若確認存在兒童色情內容,那么蘋果方面將關閉賬戶,并通知美國國家失蹤和被剝削兒童中心。
蘋果這一舉動受到了兒童保護組織的認可,但有更多的人認為蘋果審查用戶照片是個不好的苗頭,覺得被植入了后門,擔心該系統遭到濫用。
蘋果此前解釋過該系統的運作方式,稱這一系統并不能真正“看到”用戶的照片,而是采用“數字指紋”的技術,通過辨識圖片中的關鍵信息,與現有的兒童性侵圖像數據庫內容對比。
雖然內部員工都有強烈的反對傾向,但蘋果還是會執行這一政策,本周還給員工下發了最新的備忘錄,要求員工在CSAM后門問題上統一口徑,強調這一政策只針對iCloud中的CSAM內容,不會容忍被濫用。
標簽: 蘋果 新技術 neuralMatch 用戶照片 iOS
新聞排行
圖文播報
科普信息網 - 科普類網站
聯系郵箱:85 572 98@qq.com 備案號: 粵ICP備18023326號-39
版權所有:科普信息網 www.www44bkbkcom.cn copyright © 2018 - 2020
科普信息網版權所有 本站點信息未經允許不得復制或鏡像,違者將被追究法律責任!