CraftLab
  • 儿童安全标准
  • English

打击网络儿童性剥削和虐待

内容警告:本文讨论的是网络儿童性剥削和虐待问题,部分读者可能会感到不适。


我们明确禁止用户使用任何 DeepLive 服务从事非法活动,包括剥削、危害或性化任何未满 18 周岁的未成年人。我们禁止将我们的服务用于以下用途:

  • CSAM,无论其中是否有人工智能生成; 
  • 诱骗未成年人; 
  • 让未成年人接触不适合其年龄的内容,例如露骨的自残、色情或暴力内容; 
  • 向未成年人宣传不健康的节食或运动行为; 
  • 对未成年人的体型或外貌进行羞辱或歧视; 
  • 对未成年人来说危险的挑战; 
  • 未成年人进行性或暴力角色扮演,以及未成年人接触受年龄限制的商品或活动。

这些政策同样适用于基于我们技术构建应用程序的开发者:如果开发者构建的工具面向未成年人,则这些工具不得允许创建露骨或暗示性内容。我们会监控服务是否存在违反这些政策的行为,并封禁违规用户和开发者的账号。

任何试图生成或上传儿童性虐待材料(CSAM)或儿童性虐待视频(CSEM)的用户都将被举报给 美国国家失踪与受虐儿童中心 。 (在新窗口中打开) (NCMEC)并禁止继续使用我们的服务。如果我们发现开发者的用户试图生成或上传儿童性虐待材料 (CSAM) 或儿童性虐待视频 (CSEM),我们会通知开发者,并给予他们机会通过禁止问题用户使用其应用来解决问题;如果开发者未能解决其应用中持续存在的问题行为模式,我们将禁止该开发者使用其应用。一些因从事非法活动而被禁止使用我们产品的用户试图通过创建新帐户来规避这些禁令。我们的调查团队会监控此类规避行为,并努力防止不良行为者再次利用我们的产品进行滥用活动。

我们以负责任的方式训练我们的人工智能模型。

我们致力于以负责任的方式获取训练数据集,以保护其免受基于图像的性虐待侵害。我们会检测并移除训练数据中的儿童性虐待材料(CSAM)和儿童性虐待视频(CSEM),并将任何已确认的CSAM报告给相关机构,包括美国国家失踪与受虐儿童中心(NCMEC)。这一初步措施旨在从根本上防止模型发展出生成CSAM或CSEM的能力。

我们通力合作,共同检测、阻止和举报滥用行为。

我们的模型经过训练,不会生成有害的文本、图像、音频或视频内容,但仍有部分用户试图滥用我们的产品来生成有害内容。我们发现,一些用户试图诱导模型生成人工智能生成的儿童性虐待材料(CSAM),或生成看似旨在满足涉及未成年人的性幻想的内容。这些行为违反了我们的模型政策和使用政策,我们会监控服务的使用情况以检测此类尝试。

我们部署监控和执法技术,以检测和阻止不法分子试图利用我们的工具违反我们的政策对儿童进行性剥削。这包括使用我们自己的模型更快地检测可能的虐待行为,以及合作制定行业范围内的安全保障措施。我们使用 哈希匹配技术 。 (在新窗口中打开) 运用技术识别由我们内部儿童安全团队或 Thorn 标记的已知儿童性虐待材料 (在新窗口中打开) 经过审核的库。我们也使用 Thorn 的 CSAM 。 (在新窗口中打开) 使用内容分类器对上传到我们产品的内容进行分析,以检测潜在的新型 CSAM。

我们的儿童安全团队会将所有儿童性虐待材料(包括上传和请求)的案例报告给美国国家失踪 与受虐儿童中心(NCMEC) 。 (在新窗口中打开) 并立即封禁相关账户。如有证据表明虐待行为仍在继续,我们的团队将进行深入调查,并向美国国家失踪与受虐儿童中心 (NCMEC) 提交补充报告,以便优先处理。

人工智能工具如何助长新的虐待模式——以及我们如何应对

作为我们持续开展的安全工作的一部分,为了帮助其他致力于保护儿童的研究人员和组织,我们正在分享我们观察到并阻止的虐待模式,以便业内其他人士能够从我们的经验中受益。除了诱导模型生成儿童性虐待材料或未成年人性化图像之外,我们还发现出现了需要应对的新型虐待模式。

DeepLive允许用户上传图片、视频和文件,以便模型能够与之交互并分析内容。我们观察到,一些用户上传儿童性虐待材料(CSAM),并要求模型生成材料内容的详细描述。Thorn的CSAM分类器和哈希匹配技术使我们能够检测这些上传内容中潜在的CSAM,并阻止模型执行此类请求。

在某些情况下,我们发现有用户试图诱骗模特参与虚构的性角色扮演场景,并将儿童性虐待材料(CSAM)作为叙事的一部分上传。我们也发现有用户试图诱骗模特撰写虚构故事,将未成年人置于性骚扰和/或虐待的境地——这违反了我们的儿童安全政策,我们会迅速采取行动检测这些企图并封禁相关账户。我们的系统旨在检测和阻止此类企图,一旦发现涉及儿童性虐待材料,参与此类行为的账户将被封禁并报告给美国国家失踪与受虐儿童中心(NCMEC)。

我们严肃对待此类虐待行为,虽然我们认识到即使是最先进的系统也并非万无一失,但我们一直在不断改进方法来预防此类虐待。我们应对这些情况的方法是多方面的。除了及时检测外,我们还结合了上下文感知分类器、虐待监控和内部专家审核(仅当分类器标记出潜在虐待行为时才会进行审核),以确保我们的模型能够有效抵御此类滥用行为。所有这些信息都严格保密,仅供相关团队的受过培训的专家访问。此外,我们还拥有内部儿童安全领域的专家,他们协助我们不断完善安全保障措施。

倡导制定公共政策,促进产学研合作,共同打击滥用行为。

在美国,持有或制作儿童性虐待材料(CSAM)均属违法行为。在人工智能系统开发领域,这意味着使用CSAM(即使是模拟的)对人工智能模型进行红队演练也是违法的。红队演练是指对人工智能模型进行压力测试,以识别其漏洞、弱点或意外行为。虽然禁止持有和制作CSAM可以保护儿童,但也为我们全面测试和验证旨在打击CSAM的安全措施增加了难度。

因此,我们希望各国政府采纳公共政策框架,促进科技公司、执法部门和倡导组织之间建立强有力的伙伴关系,以保护儿童并营造安全可靠的网络环境。这也是我们支持《 儿童性虐待材料预防法案》等法案 的原因。 (在新窗口中打开)

CraftLab
CraftLab

Hello User! Welcome back

Thank You! Successfully LoggedIn
  • Forgot Password ?
  • |
  • Sign Up