您的位置 首页 > 数码极客

【苹果图片查看】Apple 新的儿童安全功能,扫描用户照片库以及查找已知的滥用材料

用户隐私和安全是苹果主要关注的问题。安全也是一样。例如,使用户能够保护数据安全是iOS的常见卖点之一。

因此,Apple 想要扩大这一范围是有道理的,尤其是在保护儿童方面。

今天,Apple 透露了其在这方面的最新努力。该公司正在预览今年晚些时候将推出其主要操作系统的新功能。这些新功能将在更新后融入软件,更新日期未公开。更重要的是,Apple 还确认新功能将仅在美国推出时在美国提供,但 Apple 正在寻求在未来扩展到这些边界之外。

苹果专注于三个领域。CSAM 检测、通信安全以及搜索和Siri 中的扩展指导。您可以在 Apple 的公告中更详细地查看它们。下面,您将简要地找到它们。

沟通

首先,对儿童来说最有潜在危险的区域之一。沟通。有了这个新的焦点,消息现在可以让孩子和他们的父母知道他们什么时候可能会在消息应用中发送露骨的照片。这也适用于接收这些类型的照片。

根据今天的公告:

收到此类内容时,照片会被模糊处理,并且会警告孩子,提供有用的资源,并保证他们不想查看此照片也没关系。作为额外的预防措施,还可以告诉孩子,为了确保他们的安全,如果他们确实看到了消息,他们的父母会收到一条消息。如果儿童试图发送露骨的色情照片,则可以使用类似的保护措施。照片发送前孩子会收到警告,如果孩子选择发送,父母可以收到消息。

此特定功能将适用于设置为家庭的帐户,并将在 iOS 15、iPadOS 15 和 macOS 12 Monterey 中提供。

Apple 表示设备上的机器学习 (ML) 将处理照片发现元素。这是固有的设计,因此 Apple 本身无法访问图像。

CSAM检测

儿童性虐待材料 (CSAM) 是 Apple 将重点关注的另一个领域。该材料向儿童展示了露骨的活动,Apple 旨在打击它。为了提供帮助,Apple 将实施一项技术,使扫描用户 iCloud 照片库内容和识别任何 CSAM 成为可能。为此,Apple 将能够向国家失踪和受虐儿童中心 (NCMEC) 报告这些发现,该中心是一个综合报告中心。

从公告:

Apple 检测已知 CSAM 的方法在设计时考虑了用户隐私。该系统不是扫描云中的图像,而是使用 NCMEC 和其他儿童安全组织提供的已知 CSAM 图像哈希数据库执行设备上匹配。Apple 进一步将此数据库转换为一组不可读的哈希值,并安全地存储在用户的设备上。

在将图像存储在 iCloud 照片中之前,会根据已知的 CSAM 哈希值对该图像执行设备上的匹配过程。此匹配过程由称为私有集交集的加密技术提供支持,该技术可在不透露结果的情况下确定是否存在匹配。该设备创建一个加密安全凭证,对匹配结果以及有关图像的附加加密数据进行编码。此优惠券与图像一起上传到 iCloud 照片。

为了确保 Apple 本身不能在没有必要的情况下解释照片(基本上,除非它被报告/发现工具 ping 通),还有所谓的“阈值秘密共享”:

该系统使用另一种称为阈值秘密共享的技术,确保除非 iCloud 照片帐户超过已知 CSAM 内容的阈值,否则 Apple 无法解释安全凭证的内容。该阈值旨在提供极高的准确性,并确保每年错误标记给定帐户的几率低于万亿分之一。

只有当超过阈值时,加密技术才允许 Apple 解释与匹配的 CSAM 图像相关联的安全凭证的内容。然后,Apple 手动审查每份报告以确认是否存在匹配项,禁用用户帐户,并向 NCMEC 发送报告。如果用户认为他们的帐户被错误标记,他们可以提出上诉以恢复他们的帐户。

值得注意的是,如果用户关闭 iCloud 照片,此功能将无法使用。

搜索和 Siri

第三个要素是扩大对 Siri 和搜索的指导。这是为了帮助父母和孩子在上网时以及在“不安全的情况”下保持安全。实施此新功能后,用户将能够直接询问 Siri 在哪里可以报告 CSAM 或儿童剥削,然后被定向到资源。

如果有人尝试使用 Siri 或一般的搜索功能进行搜索,软件本身会重定向搜索并通知用户“对这个主题的兴趣是有害的和有问题的”。然后,该功能将建议资源以帮助解决该问题。

苹果表示,这些搜索和 Siri 更新将在 iOS 15、iPadOS 15、macOS 12 Monterey 和 watchOS 8 中推出。

关于作者: admin

无忧经验小编鲁达,内容侵删请Email至wohenlihai#qq.com(#改为@)

热门推荐