公司动态

苹果为FaceTime添加了裸照。这就是苹果选择的隐私

▲ 苹果和岳云鹏合作广告海报. 图片来自:Apple您应该已经看到与Apple和Yue Yunpeng合作的广告。中心建议是保证隐私和安全性,这是非常iPhone。那就是苹果所说的。但是,当将“隐私”和“道德”放在规模的两端时,甚至苹果也面临着陷入困境的问题。 ▲Apple和Yue Yunpeng与广告的海报合作。图像:根据Apple的说法,Apple在iOS 26开发人员的先前视图版本中启动了FaceTime裸体检测功能,目的是在视频呼叫中检测裸内容不合适。已经得知苹果使用设备端的算法来识别真实时间调用中的裸内容。一旦系统识别出可能的裸露图像,它就会立即停止视频通话并显示警告。苹果说,这种特征的最初意图是将其应用于儿童帐户,并为青少年提供安全的社会Orno。 ▲faceTime冻结界面。图片:9to5maC此功能来自几年前苹果发起的CSAM扫描计划(儿童性虐待材料)。但是,由于某种原因,此功能已扩展到涵盖iOS 26开发人员版本的所有年龄段的用户。换句话说,成年用户也受到“保护”。苹果强调,所有身份验证任务均在设备中本地处理,并且数据没有加载到云中,但由于年龄范围更高的社交网络,社交网络引起了广泛的争议。一个名为Krazygreekguy的用户对9to5mac发表了评论。我了解这背后的想法,但我无权对成年人强加这种控制。没有组织侵犯人们的隐私。 ▲苹果促进图像。图像:换句话说,人们关心Exposeto说,这个年龄段的报道是扩大了苹果独特的力量,因此在私人生活中过度干预,场景与我们所实现的色情意图完全无关,我们已经实现了可能扩大的情况。想象一下,如果是的OU正在家里与一个孩子交谈,由于您没有衬衫或调整衣服,因此可能会错误地判断您不适当地判断您。 ▲faceTime。图片:苹果实际上,FaceTime从事该行业已有14年了。作为苹果生态系统的“旧级别”特征,这不是第一次引起争议。在2019年,FaceTime允许用户在不连接的情况下收听他人的电话。苹果迅速设定了脆弱性,但许多人质疑在隐私宣传下真正的苹果保护能力。 ▲苹果促进图像。照片:作为公司的核心价值,苹果公司始终对用户隐私的保护非常重要。那些很长一段时间以来一直关注苹果的人会记得2015年苹果联邦调查局的严重事件:在加利福尼亚州圣贝纳迪诺拍摄后,BI被要求解锁凶手使用的iPhone,以获取有关恐怖活动F的信息,但苹果拒绝了。当时,APPLE的首席执行官蒂姆·库克(Tim Cook)说:当后门打开时,所有用户的安全性和隐私都不会关闭并面临风险。 ▲faceTime接口。照片:苹果,但苹果仍然在隐私问题上引起了很多争议。例如,以前的CSAM扫描计划在启动时也受到批评。从2021年的iOS 15开始,Apple Hashed Photos用户在美国机构通过当地设备上的NeuralHash技术维护的CSAM数据库中升至iCloud。当制作预先建立的阈值时,Apple破译了相关数据并执行手动审查。经过验证后,它将被停用,并将告知国家缺乏和虐待儿童的中心(NCMEC)。苹果在发现和揭示性犯罪分子和儿童技术公司时揭示了此功能的目的,认为这是为了保护用户对最大程度的隐私,并避免错误的审判和虐待。但是,几个隐私保护组织和证券Y专家质疑苹果是否会偏离对保护的一致承诺。毕竟,CSAM的扫描仍然确定用户收取的隐私信息。鉴于压力,苹果宣布将推迟其功能以支持其他儿童保护措施,例如信息通信的安全性和SIRI搜索干预功能。诱惑,不可能拥有“道德”和“隐私”。返回我们首先提到的FaceTime裸体的检测。根据苹果的最初意图,这是一项安全功能,旨在更好地保护青少年。这有助于防止青少年在视频通话中暴露于不适当的裸内容中。类似的性骚扰和视频通话欺诈案件在全球范围内都是无限的。苹果拥有超过10亿用户,应承担社会责任。但是,另一方面,这种“自动干预”的局限性仍然是一个重要的问题。如何权衡利弊并做出“正确”的决定,当时公共道德和个人隐私在两端的规模上找到。很长一段时间以来,苹果可能会感到不安。本文的作者:周