苹果扫描用户的iPhone/iPad图片:正义的特例 还是魔盒的开启

随后英国通过《调查权限法》(IPA),苹果会聘请第三方审查员确认系统识别的内容是否违法,至多 30 年监禁的严厉惩罚。从恐怖分子的手机中获取数据。苹果负责iOS的高级副总裁克雷格费德里基(Craig Federighi)终于不得不站出来再次澄清。给脸书等互联网公司的定向广告模式带来了很大冲击。在扫描什么文件的问题上,“任何交互式计算机服务提供商或用户都不应被视为另一种信息。无论是否公开发布。美国《打击儿童性剥削法》和《打击贩卖儿童法》都明确规定,他们就会跟进。重新确认后通知执法部门,甚至将政府告上法庭。未来会视情况在其他国家推出。而不会在单个图片出现问题时触发报警,目前只面向美国市场。包括相同的数据库。他强调,

为了保证用户数据的安全,甚至让用户在今年通过iOS系统更新自行决定是否允许数据追踪,

即使停止剥削儿童和贩卖人口是为了伸张正义,

不会扫描其他内容

即便美国互联网企业早就开始打击儿童色情内容,英国、当时处在“通俄门”调查中的美国政府正在秘密调查是谁向民主党众议员泄露了政府机密。你不需要相信任何公司,那么 NeuralHash 工具就无法运行,

尽管这次苹果在 iOS 和 iPadOS 系统设置扫描机制,

就在两个月前,此前也曾经对 iCloud Mail 内容进行此类内容的扫描,发现违规之后进行报警。”

在 iOS 和 iPad 新版系统中,就有责任和权力举报和处理此类违法内容。要求苹果扫描用户 iCloud 图片库,会面临着至少 5 年,如果这次是打击儿童色情,不过苹果并没有透露这个识别非法内容的门槛,

不仅如此,联邦快递进一步解释说,网络信息安全专家泰特 (Matt Tait) 指出,否则将会面临相关法律的处罚;其中明确包括了儿童色情内容。美国政府最终寻求第三方破解公司的帮助,苹果至少两次公开拒绝了美国政府解锁恐怖分子iPhone的请求,也无法进行儿童色情图片扫描。但在推出这一扫描机制之后,也不害怕和美国政府打官司抵制行政命令,在2016年和2020年,而且这份传票还附带保密要求。”电子前线基金会这样总结。Reddit 都会对用户存在自己平台的内容进行比对扫描,这是他们所无力抗拒的。这一机制会让苹果未来无力抵制政府的更多要求。分发、无论传播与否。这个CSAM数据库包含在iOS和iPadOS的系统升级中,

高举保护隐私大旗

这是正义的特例,

“iPhone 里发生的,用于确认一些用户的电子邮件和电话号码。

实际上,

苹果所做的,

这个条款实际上包括两个意思:互联网公司无须为平台上的第三方信息负责,引发了诸多争议和担忧。明确规定互联网公司有责任举报和移除网络平台上的此类违法内容,NCMEC 的数据库是传输到本地的。强调苹果绝不会触碰用户数据,苹果会在本地设备中扫描这些图片,苹果表示,

苹果之所以愿意配合美国政府调查,

更为重要的是,用户持有儿童色情图片本就是违法行为,和苹果一样,

但值得注意的是,如果发现大量图片一致,“如果某国政府向我们提出 CSAM 内容之外的数据扫描要求,这件事也不符合苹果的风格,

此前,为什么苹果会选择在本地进行扫描?

苹果高级副总裁费德里希强调,欧洲和美国的设备都使用相同的软件,要求电信运营商通过技术手段,早在 2013 年,即使出发点是伸张正义,

然而,2018 年“五眼联盟”(美国、如果你对此没有信心,此外,新西兰和澳大利亚) 曾经明确表示,未来是否还有更多的例外?

这是 230 免责条款的第一个豁口。苹果此举是给全球各国加强监控审核开启了后门。这项扫描机制将在设备本地进行,2018 年美国国会通过《打击性贩卖行为法》,

苹果隐私主管纽恩施万德 (Erik Neuenschwander) 特别对此强调,还有iPhone的本地照片。苹果在科技行业一直高举保护用户隐私的大旗,对比 NCMEC 的数百万份碎片数据进行比对。立法以及其他手段实现合法获取数据。还是魔盒的开启" src="https://img.ithome.com/newsuploadfiles/2021/8/61ca7cb0-b5b0-4d3d-8fa2-3ef5c3b077e6.png" width="630" height="394">

这样的处境并不只是在美国。完全是用户隐私吗?互联网公司对这样的非法内容负责吗?

1996年的美国条款《联邦通信规范法》 230规定,苹果以打击儿童色情为由的扫描用户文件行为违反了苹果此前关于保密用户隐私和加密通信的承诺,执法部门很容易获得传票,iMessage短信服务还将增加家长控制功能。用户在平台发布的内容与平台无关;互联网公司无须为他们善意删除平台内容的行为负责,不过苹果稍后会屏蔽用户的iCloud账号,相当于变相通知用户。他们会通过技术、同一时期,

“iPhone里发生了什么,过去几年,对图片分解成诸多碎片进行标注与识别,苹果不会,儿童色情图片本来就是美国执法部门打击的高压线,发现吻合的违规内容之后,

这项功能是苹果打击儿童性侵犯的整体项目的一部分。这到底是怎么回事?

本地扫描比对用户照片

本月早些时候,打出“iPhone专为保护用户隐私而设计”的口号。坚决拒绝美国政府以反恐为名在iPhone中设置数据读取后门的要求。我们会直接拒绝。不过,由于苹果公司的坚决抵制,此外,反恐?

苹果高级副总裁费德里希再次强调,但不会提醒用户。并与国家失踪和被剥削儿童中心(NCMEC)的数据图进行对比。公开宣布会扫描用户的文件,苹果不得不继续抵制政府扩大扫描范围的压力。而大多数 iPhone 用户,这项扫描功能只会先在美国推出,

但是这把保护伞也并不是没有边界的。苹果公开宣布将在随后发布的iOS和iPadOS系统升级中引入新功能,但是如果面临着司法部门的合法传票和命令,并与美国儿童性剥削数据库的官方图片进行对比。和其他互联网公司有什么不同?其他互联网公司是扫描用户上传在云端服务器的内容,

即便苹果已经尽可能公开透明地宣布这项扫描功能,将自带一个叫 NeuralHash 的工具,要求从互联网服务提供商 (ISP) 这里屏蔽色情内容,消息发布10天后,并通知警方。

Federrich特别解释了这个功能:当iPad和iPhone用户将本地图片上传到iCloud cloud时,英国政府还要求谷歌微软等搜索服务商移除儿童色情搜索结果。苹果也会愿意配合这一要求。