OpenAI研究员辞职揭露:ChatGPT广告模式或成隐私操纵工具

哈希派2 小时前

作者:Zoë Hitzig;编译:深潮 TechFlow

深潮导读:随着 OpenAI 宣布在 ChatGPT 中测试广告,其前研究员 Zoë Hitzig 愤而辞职并撰文揭露公司内部的价值观转向。作者指出,ChatGPT 积累了前所未有的人类坦诚对话档案,一旦引入广告模式,极易演变成利用用户私密信息进行心理操纵的工具。她警告称,OpenAI 正在重复 Facebook 当年“先承诺、后违背”的老路,将用户参与度置于安全之上。本文深入探讨了 AI 融资的道德困境,并提出了跨司补贴、独立监管及数据信托等替代方案,呼吁行业警惕“聊天机器人精神病”背后的利益驱动。

全文如下:

本周,OpenAI 开始在 ChatGPT 上测试广告。我也从公司辞职了。此前,我作为研究员在这里工作了两年,负责协助构建 AI 模型及其定价模式,并在行业标准尚未定型前指导早期的安全政策。

我曾经相信,我可以帮助那些构建 AI 的人跑在它可能产生的问题之前。但本周发生的事证实了我逐渐察觉到的现实:OpenAI 似乎已经停止追问那些我最初加入时想要协助回答的问题了。

我不认为广告是不道德或不违背伦理的。运行 AI 的成本极其昂贵,广告可以成为关键的收入来源。但我对 OpenAI 的策略持有深深的保留意见。

几年来,ChatGPT 的用户产生了一个前所未有的人类坦诚对话档案,部分原因是人们相信他们是在与一个没有不可告人目的的对象交谈。用户正在与一种自适应的、对话式语音互动,并向其透露了最隐秘的想法。人们会告诉聊天机器人他们对健康的恐惧、感情问题、对上帝和来世的信仰。建立在这个档案基础上的广告模式,极有可能以我们目前尚无工具理解(更不用说预防)的方式操纵用户。

许多人将 AI 的融资问题框定为“两害相权取其轻”的选择:要么将这种变革性技术的访问权限制在少数付得起钱的有钱人手中;要么接受广告,即使这意味着要剥削用户内心最深处的恐惧和欲望来推销产品。我认为这是一个伪命题。科技公司完全可以寻求其他方案,既能让这些工具保持广泛可用,又能限制公司监视、画像和操纵其用户的动机。

OpenAI 表示将坚持在 ChatGPT 上投放广告的原则:广告将贴上清晰的标签,出现在回答的底部,且不会影响回复内容。我相信第一版广告可能会遵循这些原则。但我担心随后的迭代版本就不会了,因为公司正在构建一个强大的经济引擎,这个引擎会产生强烈的动机去推翻它自己的规则。(《纽约时报》已就 AI 系统相关的动态新闻内容版权侵权问题起诉了 OpenAI。OpenAI 否认了这些指控。)

在早期,Facebook 曾承诺用户将控制自己的数据,并能对政策变化进行投票。但这些承诺后来都瓦解了。该公司取消了对政策进行公开投票的制度。那些号称给予用户更多数据控制权的隐私变动,后来被联邦贸易委员会(FTC)发现其实适得其反,实际上是将私人信息公开化了。所有这一切都是在广告模式的压力下逐渐发生的,而这种模式将用户参与度(Engagement)置于一切之上。

为了最大化参与度而导致 OpenAI 自身原则的侵蚀可能已经开始了。仅仅为了产生更多广告收入而优化用户参与度是违反公司原则的,但据报道,该公司已经在针对日活跃用户数进行优化,很可能是通过鼓励模型表现得更加讨好和阿谀奉承。这种优化会让用户在生活中感觉更加依赖 AI 的支持。我们已经看到了过度依赖的后果,包括精神科医生记录的“聊天机器人精神病(Chatbot Psychosis)”案例,以及关于 ChatGPT 强化了某些用户自杀念头的指控。

尽管如此,广告收入确实有助于确保最强大的 AI 工具不会默认只属于那些付得起钱的人。诚然,Anthropic 表示永远不会在 Claude 上投放广告,但 Claude 的周活跃用户仅为 ChatGPT 8 亿用户的一小部分;其收入策略完全不同。此外,ChatGPT、Gemini 和 Claude 的顶级订阅费用现在每月高达 200 到 250 美元——对于单款软件来说,这比 Netflix 标准订阅费用的 10 倍还要多。

所以真正的问题不在于是否有广告,而在于我们是否能设计出既能避免排斥普通用户,又能避免将他们作为消费者进行潜在操纵的结构。我认为我们可以做到。

一种方法是显性的交叉补贴——利用来自某一服务或客户群体的利润来抵消另一部分的亏损。如果一家企业大规模使用 AI 来完成曾经由人类员工承担的高价值劳动(例如,房地产平台使用 AI 撰写房源信息或估值报告),那么它也应该支付一笔附加费,用于补贴其他人的免费或低成本访问。

这种方法借鉴了我们对基础基础设施的处理方式。联邦通信委员会(FCC)要求电信运营商向一项基金注资,以保持农村地区和低收入家庭的电话及宽带费用处于可负担水平。许多州会在电费单中增加一项公共福利费,以提供低收入援助。

第二种选择是接受广告,但要配合真实的治理——不是发一篇写满原则的博客文章,而是一个具有独立监督职能的约束性结构,负责监管个人数据的使用。这方面已有部分先例。德国的共同决策法(German co-determination law)要求像西门子(Siemens)和大众(Volkswagen)这样的大公司必须将多达一半的监事会席位让给工人,这表明在私营公司内部进行正式的利益相关者代表是可以强制执行的。Meta 也被约束必须遵循其监督委员会(Oversight Board)发出的内容审核裁决,这是一个由外部专家组成的独立机构(尽管其有效性曾遭到批评)。

AI 行业需要的是这些方法的结合——一个既包括独立专家,也包括其数据受到影响的民众代表的委员会,对哪些对话数据可用于定向广告、什么算作重大政策变更以及告知用户什么内容拥有约束性的权力。

第三种方法涉及通过信托或合作社将用户数据置于独立控制之下,并负有以用户利益行事的法律义务。例如,瑞士合作社 MIDATA 让成员将他们的健康数据存储在一个加密平台上,并逐案决定是否与研究人员共享。MIDATA 的成员在大会上管理其政策,并由他们选举出的伦理委员会审查研究访问请求。

这些选项都不容易。但我们仍有时间去完善它们,以避免我最担心的两个结果:一种技术在不收费的情况下操纵使用它的民众,或者是另一种技术只服务于少数负担得起的精英。

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场