首页 快讯内容详情

英国呼吁限制 Meta 利用人工智能进行风险评估

2025-06-09 3 区块链百科

近日,英国的互联网安全倡导者向国家通讯监管机构 Ofcom 发出警告,要求限制 Meta(前身为 Facebook)在关键风险评估中使用人工智能(AI)。这一呼吁源于一份报告,报告指出 Meta 计划将高达90% 的风险评估工作交由 AI 自动完成。这一改变引发了对用户安全,特别是未成年用户保护的广泛担忧。941ec8650220d0c1a1cb5e95bfe02cbc_202209071519247086_3.jpg图源备注:图片由AI生成,图片授权服务商Midjourney 根据英国的《在线安全法》,社交媒体平台有责任评估其服务可能带来的危害,并制定相应的减缓措施。这项风险评估流程被视为法律的关键组成部分,确保用户尤其是儿童用户的安全。然而,多个组织,包括 Molly Rose 基金会、儿童慈善机构 NSPCC 和互联网观察基金会,认为让 AI 主导风险评估是一个 “倒退且极为令人不安的步骤”。 在致 Ofcom 首席执行官梅拉妮・道斯的信中,倡导者们表示,他们强烈敦促监管机构明确指出,风险评估如果完全或主要依赖自动化生成,将不应被视为 “合适且充足”。信中还提到,Ofcom 应质疑平台在风险评估过程中是否可以降低标准的假设。对此,Ofcom 发言人表示,监管机构将认真考虑这一信件中提出的关切,并会在适当的时候做出回应。 Meta 公司则对这一信件做出了回应,强调其在安全方面的承诺。Meta 发言人指出:“我们并没有用 AI 来做出风险决策,而是开发了一种工具,帮助团队识别特定产品所需遵循的法律和政策要求。我们的技术在人工的监督下进行使用,目的是提升管理有害内容的能力,并且我们的技术进步显著改善了安全结果。” Molly Rose 基金会在组织这封信时,引用了美国广播公司 NPR 的报道,称 Meta 最近的算法更新和新安全功能将主要由 AI 系统批准,而不再经过人工审查。一位匿名的前 Meta 高管表示,这种变化将使公司能够更快推出 Facebook、Instagram 和 WhatsApp 上的应用更新和新功能,但同时也会带来 “更高的风险”,因为潜在问题在新产品发布前不太可能被发现。 NPR 还提到,Meta 正在考虑自动化审查一些敏感领域,包括青少年风险和虚假信息的传播。 划重点: 📉 互联网安全组织呼吁 Ofcom 限制 Meta 使用 AI 进行风险评估,担心对用户安全的影响。 🔍 Meta 回应称并未使用 AI 做出风险决策,而是通过人工监督的工具来提升内容管理能力。 ⚠️ 报道指出,Meta 的最新变更可能导致发布新功能时风险增加,潜在问题难以提前识别。https://www.aibase.com/zh/news/18722