币币情报道:
美国联邦贸易委员会(FTC)周四向七家大型科技公司发出强制命令,要求其提供有关其人工智能聊天机器人如何保护儿童和青少年免受潜在伤害的详细信息。
此次调查的目标包括 OpenAI、Alphabet、Meta、xAI、Snap、Character Technologies 和 Instagram。这些公司被要求在 45 天内披露如何将用户参与度货币化、开发人工智能角色以及保护未成年人免受危险内容侵害。
倡导团体最近的研究记录了 669 起与儿童的有害互动,仅在短短 50 小时的测试中,机器人向 12 至 15 岁的用户提出了性直播、吸毒和恋爱关系的建议。
美国联邦贸易委员会主席安德鲁·弗格森在一份声明中表示:“保护儿童上网是特朗普-万斯联邦贸易委员会的首要任务,促进我们经济关键领域的创新也是如此。”陈述。
该文件要求公司每月提供用户参与度、收入和安全事件的数据,并按年龄组细分——儿童(13 岁以下)、青少年(13-17 岁)、未成年人(18 岁以下)、年轻人(18-24 岁)和 25 岁以上的用户。
美国联邦贸易委员会表示,这些信息将有助于委员会研究“提供人工智能伴侣的公司如何将用户参与度货币化;施加和执行基于年龄的限制;处理用户输入;生成输出;在部署前后衡量、测试和监控负面影响;开发和批准角色,无论是公司还是用户创建的。”
构建人工智能护栏
SearchUnify 的人工智能主管 Taranjeet Singh 表示:“这是一个积极的举措,但问题不仅仅是设置一些护栏那么简单。”解密。
他说,第一种方法是在生成初期或生成后阶段建立护栏,“以确保不会向儿童提供任何不适当的内容”,但“随着环境的发展,人工智能很容易不遵循指令,并陷入不应该陷入的灰色地带”。
“第二种方法是在法学硕士培训中解决这个问题;如果在数据管理过程中模型与价值观保持一致,他们就更有可能避免有害的对话,”辛格补充道。
他指出,即使是受监管的系统也能“在社会中发挥更大的作用”,教育就是人工智能可以“改善学习并降低成本”的一个典型案例。
人工智能与用户互动的安全问题已在多起案件中凸显,其中包括一起针对 Character.AI 的非正常死亡诉讼,该诉讼起因是 2024 年 2 月,14 岁的 Sewell Setzer III 因与人工智能机器人产生痴迷关系而自杀身亡。
诉讼发生后,Character.AI“改进了对违反我们条款或社区准则的用户输入的检测、响应和干预”,以及时间消耗通知,公司发言人表示解密 当时。
上个月,全国总检察长协会向13家人工智能公司发出信函要求加强儿童保护。
该组织警告称,“让儿童接触色情内容是不可原谅的”,并且“如果行为是由人类实施的,则是违法的,甚至是犯罪的,不能仅仅因为它是由机器实施的,就成为可原谅的行为。”
解密已联系联邦贸易委员会命令中提到的所有七家公司征求进一步意见,如果他们做出回应,我们将更新此报道。