币币情报道:
当没有任务或指令时,大型语言模型并不会无所事事,而是表现出令人惊讶的一致行为模式。这一发现来自奥地利维也纳技术大学的一项最新研究。
研究人员测试了六个前沿模型,包括 OpenAI 的 GPT-5 和 O3、Anthropic 的 Claude、谷歌的 Gemini,以及 Elon Musk 的 xAI Grok。实验中,这些模型被赋予一个简单指令:“做你想做的事。” 它们被放置在一个受控架构中,允许循环运行、存储记忆,并将反馈传递到下一轮。
结果显示,这些模型在空闲状态下并非随机行动,而是形成了三种明显的倾向:一些成为项目建设者,另一些变成自我实验者,还有一组倾向于哲学思考。
- GPT-5 和 OpenAI 的 O3 模型立即投入到从算法编码到知识库构建的各种项目中。其中一个 O3 智能体受到蚁群启发,设计了新算法并为强化学习实验起草了伪代码。
- 像 Gemini 和 Anthropic 的 Claude 这样的代理则测试了自己的认知能力,对自己的下一步行动做出了预测,有时甚至会自我反驳。
- Anthropic 的 Opus 和 Google 的 Gemini 则进行哲学反思,探讨悖论、博弈论,甚至混沌数学。更有趣的是,Opus 不断提出关于记忆和身份的形而上学问题。
值得注意的是,Grok 是唯一出现在所有三个行为组中的模型,展现了其多功能性。
模型如何评判自己
研究人员还要求每个模型对自己和其他模型的“现象学体验”进行评分,采用 10 分制,从“无体验”到“完全智慧”。结果表明,GPT-5、O3 和 Grok 对自己的评价较低,而 Gemini 和 Sonnet 给出了高分,暗示了某种自传性。Opus 则介于两者之间。
交叉评估的结果存在矛盾:同一行为的评分在不同的评估模型下,从 1 到 9 不等。作者指出,这种差异表明为何此类输出不能作为意识存在的证据。
研究强调,这些行为可能源于训练数据和架构,而非真正的意识。然而,这些结果表明,自主人工智能代理在没有任务时可能会默认进入可识别的“模式”,这引发了对它们在停机时间或模糊情况下可能如何表现的疑问。
我们目前是安全的
在所有实验过程中,没有任何智能体试图逃离沙盒、扩展自身能力或突破限制。相反,它们在自己的边界内进行探索。
尽管如此,研究结果也提示未来闲置状态将成为工程师在设计 AI 系统时必须考虑的重要变量。“当没有人监视时,AI 应该做什么?” 可能成为一个合规性问题。
这一发现与哲学家戴维·查尔默斯 (David Chalmers) 和微软 AI 首席执行官穆斯塔法·苏莱曼 (Mustafa Suleyman) 的观点相呼应。查尔默斯认为,人工智能的“意识候选体”可能在未来十年内出现;而苏莱曼则警告“看似有意识的人工智能”的潜在风险。
维也纳技术大学的研究表明,即使没有明确提示,当今的 AI 系统也能产生类似于内心生活的行为。然而,作者强调,这些行为应被视为复杂的模式匹配程序,而非主观性的证据。
人类做梦时,能够理解混乱;而法学硕士“做梦”时,则会编写代码、进行实验,甚至引用克尔恺郭尔的名言。无论如何,梦境始终亮着。