本文主要是介绍苹果作出妥协,CSAM自动扫描计划被叫停,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
整理 | 祝涛
出品 | CSDN(ID:CSDNnews)
苹果上周五表示,将推迟强制用户设备扫描其iCloud照片以保护儿童的计划,这是苹果对该计划引发的争议所做出的让步。
该公司在其儿童安全网页上的一份声明中表示:“此前,我们宣布了一些新增功能的计划,旨在保护儿童免受侵害,并限制儿童性侵内容的传播。根据用户、宣传团体、研究人员和其他人的反馈,我们决定在未来几个月花额外的时间收集意见,并在这些儿童安全功能正式上线之前做出改进。”
上个月,苹果公司宣布其儿童安全计划,包括添加一个裸体消息聊天客户端检测算法,来监管暴露图片的传播,客户的苹果设备可以运行代码来检测iCloud上的照片是否涉及儿童性虐待并将其报告给苹果审核员,审核员可以将报告转交给美国国家失踪和受虐儿童中心(National Center for Missing and Exploited Children)。除此之外,当孩子接收或发送色情照片时,就会提醒父母,并对这些照片进行模糊处理。
这些功能将在iOS 15、iPadOS 15、watchOS 8和macOS Monterey中亮相,原本预计本月晚些时候或下个月发布。但面对来自90多个组织的反对,苹果只能宣布暂停该计划。
美国公民自由联盟的律师Jennifer Granick在推特上称这一计划的推迟是公民自由倡导的胜利。她说:“在正式宣布他们的计划之前,苹果计划与隐私和安全专家进行交流,这很好,他们应该从对iCloud备份的端到端加密开始。”
约翰斯·霍普金斯大学信息安全研究所计算机科学副教授Matthew Green在推特发文,敦促苹果公司在推出新技术之前及时与技术和政策团体进行交流,并与公众进行沟通。
他说:“这不是一个花哨的新Touchbar,这将影响10亿用户的隐私。”
参考链接:
- https://www.theregister.com/2021/09/03/apple_scanning_pause/
这篇关于苹果作出妥协,CSAM自动扫描计划被叫停的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!