Meta 计划通过人工智能自动化评估隐私与社会风险

区块链投资社区1天前
摘要
Meta Platforms 计划使用人工智能来评估隐私和社会风险 。
币币情报道:

Meta Platforms 近日宣布,计划利用人工智能技术来评估隐私和社会风险。过去,该公司长期依赖人工评估人员对新产品和功能进行相关风险分析,但此次更新将显著改变这一传统模式。

根据内部文件和对话内容显示,Meta 的目标是实现 90% 的风险评估自动化。这意味着,公司算法的更新、安全功能的改进以及平台上内容共享方式的变化,将主要由人工智能支持的系统进行审批。这些变更将不再需要人工团队深入讨论可能产生的不可预见影响或滥用风险。

Meta 转向人工智能驱动的审查系统

据 Meta 内部消息人士透露,这一转变对产品开发者而言是一个利好消息,因为它能够加速应用更新和新功能的发布周期。然而,部分公司员工对此表示担忧,认为过度依赖人工智能可能会在现实世界中引发问题。前任和现任员工均表达了这种观点。

一位匿名的前 Meta 高管表示:“从操作层面来看,这种流程可以让更多产品更快地进入市场,减少了审查和反对的声音,但同时也意味着更高的风险。产品变更可能带来的负面外部效应,在它们开始对全球造成问题之前,不太可能被及时阻止。”

Meta 在一份最新声明中提到,公司已投入数十亿美元用于加强用户隐私保护。自 2012 年起,联邦贸易委员会便开始监管 Meta,并与其达成协议,明确如何处理用户个人信息。因此,据 Meta 前员工和现任员工透露,隐私审查一直是产品发布流程中的必要环节。

公司进一步补充道,产品风险审查的自动化将有助于简化决策流程,但在应对新颖且复杂的问题时,仍需依赖人类的专业知识。Meta 强调,目前仅低风险决策实现了自动化。然而,据美国国家公共电台(NPR)披露的内部文件显示,Meta 正在研究对敏感领域进行自动化审查,包括人工智能安全、青少年风险以及一个名为“诚信”的类别,该类别涉及错误信息和暴力内容等问题。

在之前的系统中,产品和功能更新首先会被发送给风险评估人员进行审核,然后才对公众发布。然而,根据一张展示新流程的幻灯片,产品团队只需完成一份项目问卷即可立即获得人工智能驱动的决策。该决策将识别潜在的风险领域,并提出相应的解决方案需求。在项目启动前,产品团队还需验证这些需求是否已被满足。

新系统还强调,构建 Meta 产品的工程师需要承担更多的风险判断责任。幻灯片显示,在某些情况下,如涉及新风险或特定产品(AI Tools),若团队需要额外反馈,项目仍将由人工手动审查。

然而,曾任 Meta 创新总监(任期至 2022 年)的 Zvika Krieger 指出,产品经理和工程师并非隐私领域的专家。“大多数产品经理和工程师的主要职责并非隐私保护,这也不是他们工作的核心重点。隐私风险评估并未成为激励他们优先考虑的因素。”他还补充道,一些自我评估已沦为形式化练习,忽略了关键风险。

Cryptopolitan Academy 即将推出——2025 年利用 DeFi 赚取被动收入的新方式。了解更多

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场