ChatGPT因诽谤性错误信息引发隐私投诉,欧洲展开调查
OpenAI开发的ChatGPT因涉嫌隐私侵权正在接受欧洲监管机构的调查。这款聊天机器人被指控生成虚假且具有诽谤性的内容,这种“幻觉”问题令人担忧,或将成为监管机构无法忽视的重大问题。
一位来自挪威的用户在发现ChatGPT生成了关于他的虚假信息后,向欧洲数字权利中心(noyb)寻求帮助。聊天机器人声称他曾因杀害两名儿童并试图谋杀第三名儿童而被判有罪。尽管这些信息是虚构的,但它们可能对他的生活产生深远影响。
更令人震惊的是,OpenAI并未提供一种机制让用户纠正AI生成的错误信息。虽然该公司提供了阻止某些问题回答的选项,但核心问题仍未解决——这些错误信息是否会继续存在或再次生成。
根据欧盟《通用数据保护条例》(GDPR),个人有权访问自己的数据,并要求更正不准确的信息。该法规还规定,负责处理个人数据的机构必须确保信息的准确性。这一案件因此成为GDPR框架下的一个典型案例。
noyb的数据保护律师Joakim Söderberg表示:“GDPR明确规定,个人数据必须准确。如果信息不准确,用户有权要求更正以反映真实情况。”
他补充道:“仅仅在ChatGPT的回答中添加免责声明,声称其可能出错,这并不足够。你不能随意传播虚假信息,然后用一个小免责声明来规避责任。”
调查细节
当用户询问有关Arve Hjalmar Holmen的信息时,ChatGPT编造了一个令人不安的故事。它声称Holmen因谋杀两名儿童而被判入狱21年。

尽管故事中部分信息属实,例如Holmen确实有三个孩子,AI还正确识别了孩子的性别和家乡,但它却编造了如此可怕的谎言,这使其更加令人不安。
noyb的一位代表表示,他们尚不清楚为何ChatGPT会为Holmen编造如此详尽但错误的背景。为了验证这些信息的真实性,他们查阅了报纸档案,但未找到任何支持AI所生成内容的证据。
目前最合理的解释是,大型语言模型(如ChatGPT背后的模型)本质上是在进行大规模的下一个单词预测。训练数据集中包含大量类似案例的故事,导致AI在回答相关问题时选择了错误的词汇。
与此同时,noyb表示,随着AI模型的更新,ChatGPT已不再生成此类危险的虚假信息。这一变化与工具现在需要用户提供更多信息的做法有关。
尽管如此,Holmen和noyb仍对此事感到担忧:如果AI模型在未来再次生成类似的错误信息怎么办?
挪威数据保护局已收到针对OpenAI的投诉。noyb希望监管机构能够确认其有权调查此案,即使投诉针对的是OpenAI的美国分支机构。投诉指出,OpenAI的爱尔兰办事处应对影响欧洲用户的产品决策负责。
OpenAI的命运
这不是OpenAI首次面临类似问题。过去曾有用户投诉称,ChatGPT生成了错误的个人信息,例如不正确的出生日期或传记信息。
意大利数据保护机构曾在2023年春季依据GDPR暂时禁止了ChatGPT在该国的使用。此后,OpenAI对其服务进行了调整,例如改进用户信息管理。然而,该公司仍因非法使用个人数据被罚款1500万欧元。
此外,波兰数据保护机构自2023年9月以来一直在调查ChatGPT相关的隐私投诉,但尚未作出最终决定。
欧洲隐私官员对生成式人工智能(GenAI)的态度愈发谨慎,因为他们仍在探索如何将GDPR应用于这些新型AI工具。
在两年前的一次投诉中,爱尔兰数据保护委员会(DPC)曾表示,不应急于禁止GenAI工具。相反,监管机构应花时间研究法律的具体适用方式。
此次noyb的新投诉旨在提醒隐私官员关注AI技术的潜在风险。一旦确认违反GDPR,OpenAI可能面临高达全球年营业额4%的罚款。
加密大都会学院:想在2025年实现财务增值吗?参加即将举行的WebClass课程,学习如何通过DeFi操作。立即预留您的席位
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场