OpenAI与微软分手背后:Sam Altman详解为何选择AWS作为新合作伙伴

标准共识3 小时前
Microsoft Azure独占结束后,OpenAI正试图把AI agent带进企业真实工作流

原文标题:An Interview with OpenAI CEO Sam Altman and AWS CEO Matt Garman About Bedrock Managed Agents
原文作者:Ben Thompson,Stratechery
原文编译:Peggy,BlockBeats

编者按:4月27日,OpenAI与Microsoft刚刚修改合作协议,Azure不再独占OpenAI模型,OpenAI也因此得以把产品扩展到AWS等其他云平台。

注:Azure是Microsoft旗下的云计算平台,全称通常叫Microsoft Azure。它和AWS、Google Cloud一样,主要为企业提供服务器、数据库、存储、网络、安全、AI模型部署等云服务。

对外界而言,这看似只是一次云服务分发渠道的变化;但从Sam Altman与AWS CEO Matt Garman的讨论来看,更关键的变化在于,AI正在从「模型调用」进入「企业级工作流」阶段。

本文编译自科技商业分析媒体Stratechery对Sam Altman与Matt Garman的访谈,围绕OpenAI与AWS合作推出的Bedrock Managed Agents展开,讨论了云计算与AI平台转移的相似之处、企业级agent的部署难点、AgentCore与托管式服务的区别,以及AWS在AI基础设施竞争中的位置。

注:Stratechery由科技分析师Ben Thompson创办,长期关注科技公司战略、平台经济、云计算、AI与媒体产业变化,其内容以深度分析和高管访谈为主,在硅谷科技与投资圈具有较高影响力,常被视为观察大型科技公司战略动向的重要窗口

Bedrock Managed Agents的核心,不只是让AWS客户用上OpenAI模型,而是把模型嵌入AWS原生的身份、权限、日志、治理、部署和安全体系中。换句话说,企业真正需要的并不是一个更聪明的聊天窗口,而是一套能在组织内部运行、访问数据、执行任务、遵守权限边界的「虚拟同事」系统。

这也是本次合作最值得关注的地方:AI竞争的重心正在从「谁有最强模型」转向「谁能把模型变成可用的企业基础设施」。在个人开发者场景里,Codex可以依赖本地环境解决许多复杂问题;但在企业场景中,agent要面对的是数据库、SaaS、权限系统、安全边界和合规要求。

某种意义上,这场合作也重演了云计算早期的逻辑。AWS当年降低了创业公司启动成本,让小团队不必自建服务器就能构建互联网产品;如今,OpenAI和AWS试图降低企业部署AI agent的门槛,让公司不必自己拼接模型、权限、数据和安全体系,就能把AI放进真实业务流程。不同的是,这一次采用速度更快,企业需求也更迫切。

因此,本文真正讨论的不是OpenAI模型「上架」AWS,而是AI基础设施进入下一阶段:模型、云、数据与企业权限系统开始深度绑定。未来的竞争,可能不再只是API价格、芯片性能或模型榜单,而是谁能构建出让企业放心使用、持续扩展、真正执行工作的AI平台。

以下为原文:

导语
早上好,正如我昨天提到的,今天的Stratechery访谈在我的发布时间安排上算是提前了(从周四提前到周二);但在实际送达时间上又算是延后了(从美东时间早上6点推迟到下午1点),因为这次主题受到embargo(报道禁令)限制。

过去几天,这个禁令也让我处在一个有点微妙的境地:上周五,我采访了OpenAI CEO Sam Altman和AWS CEO Matt Garman,主题是由OpenAI提供支持的Bedrock Managed Agents。很自然地,我提出的一个问题是:这项合作与OpenAI和Microsoft之间那份让Azure独家获得OpenAI模型访问权的协议,究竟如何协调?

注:Bedrock Managed Agents是AWS推出的托管式AI agent服务,由OpenAI提供模型能力支持。它并不只是让企业在AWS上调用OpenAI模型,而是将模型嵌入AWS原生的身份认证、权限管理、日志、安全、治理和部署体系中,使企业能够在自己的云环境内构建可执行任务、访问内部数据、遵守权限边界的AI agent。简单来说,可以理解为运行在AWS企业环境中的OpenAI agent基础设施。

周日晚些时候,我从小道消息听说,Microsoft会在周一早上宣布一些事情。我当时还在想,会不会是一场先发制人的诉讼!

到了周一,Microsoft和OpenAI宣布双方已经修订协议,允许OpenAI在其他云服务商上提供其产品,其中也包括AWS。

于是,就有了现在这篇访谈。

我认为,Microsoft与OpenAI这笔新安排对双方来说都很合理。以下是Microsoft官方文章中列出的新协议要点:
·Microsoft仍然是OpenAI的首要云合作伙伴;OpenAI产品将优先在Azure上发布,除非Microsoft无法支持或选择不支持相关必要能力。OpenAI现在可以通过任何云服务商向客户提供其全部产品。
·Microsoft将继续获得OpenAI模型和产品相关IP的授权,有效期至2032年。但Microsoft的授权现在将不再是独家的。
·Microsoft将不再向OpenAI支付收入分成。
·OpenAI向Microsoft支付的收入分成将持续到2030年,这一安排不受OpenAI技术进展影响,比例保持不变,但设有总额上限。
·Microsoft作为主要股东,将继续直接参与OpenAI的成长。

我认为,最重要的是最后一点。此前,Azure因为是唯一能够提供OpenAI模型的超大规模云厂商,确实拥有真正的竞争优势。但这种独占性也在限制OpenAI,尤其是在越来越多企业最关心的是能否在自己当前使用的云平台上访问模型之后,这一点变得更加明显。我已经多次指出,这正是Anthropic的一个重要竞争优势。换句话说,Azure的独家权利实际上正在损害Microsoft对OpenAI的投资。考虑到Anthropic今年的快速增长,Microsoft必须照看好这笔投资,即使这意味着Azure的差异化优势会被削弱。

与此同时,OpenAI显然将AWS视为一个巨大机会——大到它愿意在未来几年放弃与Azure相关的部分收入。结合上一点,这也会让Azure管理层在失去独家权利时更容易接受:毕竟,不再向OpenAI支付收入分成之后,Azure的损益表会好看得多。OpenAI也将Microsoft从AGI条款中释放出来;如今,无论发生什么,两家公司之间的协议都会持续到2032年。

现在看起来相当明确的是,OpenAI接下来的重点将放在AWS上。而最有力的证据,正是本次访谈的主题:由OpenAI提供支持的Bedrock Managed Agents。理解这个产品最简单的方式,是把它看作AWS里的Codex。Codex能够运行得好,很大程度上是因为它是本地化的,这让很多复杂问题,尤其是安全问题,可以天然地得到解决。但要让agents在一个组织内部跨部门、跨系统运转,则完全是另一回事。这个产品的目标,就是让那些大部分数据已经放在AWS上的组织,更容易使用这类工作流。

围绕这一点,在这次访谈中,我们讨论了AWS如何开创整个云计算品类,以及它对创业公司的影响;也讨论了AI与那一次范式转变之间有哪些相似之处,又有哪些不同。随后,我们谈到了Bedrock Managed Agents:它是什么,以及它与Amazon现有的AgentCore产品有什么区别。我们还聊到了Trainium,为什么芯片对大多数AI用户来说并不会那么重要,以及相较于Google对全栈整合的重视,为什么合作是一种合理选择。

提醒一下,所有Stratechery内容,包括访谈,都可以通过播客收听;点击这封邮件顶部的链接,即可将Stratechery添加到你的播客播放器。

进入访谈。

访谈内容
本访谈经过轻度编辑,以提升清晰度。

OpenAI进入AWS,Azure独占时代结束
Ben Thompson(主持人):Matt Garman、Sam Altman——Matt,欢迎来到Stratechery;Sam,欢迎回来。我此前曾在2025年10月、2025年3月和2023年2月采访过Altman。

Sam Altman(OpenAI CEO):谢谢。

Matt Garman(AWS CEO):谢谢,感谢邀请我。

主持人:Matt,这是你第一次来到Stratechery。遗憾的是,我想Sam的出现会让我们没法按惯例进行「认识嘉宾」的环节。况且,他大概也不想听我们回忆在Kellogg商学院的日子。不过,能在播客里邀请到一位校友,还是很高兴。

Matt Garman:是的,我很高兴来到这里。下次我可以再来,我们可以更深入地聊一聊。

主持人:那太好了。你从实习生时期就开始参与AWS,现在又在AI浪潮中负责整个AWS组织。你觉得,打造AI业务和当年打造最初的通用计算业务相比——姑且先这么说——有哪些地方是相同的?又有哪些地方是真的不同?

Matt Garman:我觉得相同的地方在于,我看到了同样的兴奋感,也看到了外面的建设者们开始能够做以前做不了的事情。当年我们刚开始做AWS时,很酷的一点是,开发者突然能够获得以前只有最大型公司才能使用的基础设施。过去,只有那些有数百万美元预算去建设数据中心的公司,才能拥有这类能力。而现在,开发者只需要一张信用卡、几美元,就可以启动应用。这极大拓展了互联网建设者能够做的事情。

我们当时的想法是,人们可以去构建任何他们想构建的东西。我们不会预设他们应该做什么。我们相信,世界各地的创造力是存在的;只要把强大的工具放到他们面前,他们就会创造出有趣且惊人的东西。

我认为AI对建设者的赋能,至少同样具有变革性,甚至可能更强。想想现在什么变得可能了:你不必上学学十年编程,才能构建一个应用;你不需要拥有数百人的庞大团队,也不需要几个月、几个月、再几个月的时间去做东西。你可以用小团队快速构建、快速迭代。AI正在解锁世界各个领域的创新。从很多方面看,这和当年非常相似。看到它给客户群体带来的能力,真的令人非常兴奋。

主持人:不过,当年AWS出现的时候,你们是唯一的玩家,所以无论是好处还是坏处,某种意义上都自然落到了你们身上。有没有这样一种感觉:在AWS时代,很多事情是关于通用计算的——让计算变得可替代、有弹性、便宜;但在AI领域,尤其是在训练阶段,获胜的抽象方式似乎更像是高度垂直整合的超级集群,非常先进的网络,以及软件和硬件之间极其紧密的联动。对你们来说,这算是一种意外吗?因为这一次,你们并不是从零开始,也不是「我们是唯一在这里的人」;你们过去对于大规模计算有一套特定理解,但至少在AI的最初几年里,它似乎并没有完全对齐。

Matt Garman:我不确定这对我们来说有多不同。我认为真正不同的是,采用速度快得惊人。我觉得这可能让所有人都感到意外。Sam,如果你不同意,可以补充。但人们接受这些能力的速度,以及抓住这些能力的速度,我认为超出了所有人的预期。

这和我们刚开始做云计算时很不一样。当时,我们花了非常长的时间去解释,为什么一家卖书的公司会来提供计算能力。我们必须花很多力气解释什么是云计算。这里面有很多艰苦工作,现在人们常常会忘记。但在2006年,没有人理所当然地认为世界的计算会迁移到云上。那时确实有大量艰难的解释和推动工作。

主持人:那你觉得现在是否也需要做一些解释?因为很多人最初都锚定在训练时代,而你们会说,「我们思考的是推理时代」,那会是另一种东西。你们是不是也需要重新启用那套解释能力?

Matt Garman:是需要的,但人们理解你在说什么的速度,已经完全不一样了。所以我认为,是的,当你要把人们从「这东西看起来挺酷,我能和一个智能聊天机器人对话」带到「它真的可以在你的企业里完成工作」时,确实需要一些教育过程。但从技术演进速度来看,这个过程已经相对很快了。

主持人:我保证,我们很快就会进入今天的产品主题。不过Sam,从创业生态的角度看,回过头去看,AWS显然是变革性的,它彻底改变了创业门槛。现在任何人都可以开始创业。种子轮、天使投资人也随之出现,融资门槛被往后推了。你不需要在PPT里写「我们要买服务器」,你可以先做出一个应用,然后再去融A轮或者别的轮次。

那从你的角度看,当年AWS所开启的世界,和今天AI所开启的世界相比,有哪些不同?又有哪些相同?

Sam Altman:我认为,历史上有四次大规模赋能创业公司的平台性时刻:互联网、云、移动,以及AI。在这四个时刻里,第一个我作为成年人经历到的是云。在YC早期,很难夸大这件事对创业公司的改变有多大。

在那之前,创业公司要租托管机房空间,自己组装服务器,把设备放进去。这是一件极其复杂的事,而且你必须先融到很多钱。然后突然之间,云出现了。虽然云是在YC创立之后才出现的,应该是第二年。

主持人:我正想问这个——归根结底,YC和云是不是比你们当时意识到的更加密不可分?

Sam Altman:当时我们就感觉它们是高度绑定在一起的。感觉YC从一开始就在乘着云这波浪潮前进,因为在AWS之前也已经有一些早期云服务的例子。

主持人:如果AWS存在,那么让一家创业公司启动起来所需的资金,确实比以前少得多。

Sam Altman:这是一次巨大的赋能变化,也是为什么YC当时听起来那么疯狂。人们会说,「不可能用几万美元投资一家创业公司,这根本不可能,光服务器成本就超过这个数了。」所以这彻底改变了创业公司可以用少量资本完成的事情。

通常来说,当出现一次大的平台转移,并且你能够用比过去更快的周期、更少的资本做事时,创业公司就会赢。这是创业公司击败大公司的经典方式。在我职业生涯的早期,我亲眼见证了云带来的这种变化。现在看着公司基于AI构建产品,方向上其实感觉非常相似。但正如Matt所说,这一次的速度非常疯狂。

主持人:有没有这样一种情况:现有的大公司、这些行业巨头,采用AI的速度比当年采用云计算要快得多?

Sam Altman:这种情况当然更多了。但我说的还包括创业公司收入增长的速度。最近我在YC演讲,最后我问了一下:「现在一个好公司在YC结束时,大家对它的收入预期是什么?」他们说:「这个答案每个月都在变。可能同一期YC,batch开始时和结束时,答案都会不一样。」以前从来没有发生过这种事。人们基于这个新平台建立规模化业务的速度,是我过去从未见过的。

主持人:Matt,在整个云时代,AWS基本上是所有创业公司的首选云,这给你们带来了巨大优势。那今天,什么让你们仍然成为首选云?因为现在很多人是在OpenAI API上构建产品;还是说你们其实感觉,「我们是从一个非常不同的角度进入这个市场的。我们有庞大的既有客户基础,他们都在要求我们提供AI能力,但对Sam所说的这整个创业公司群体,我们的可见度没有那么高」?

Matt Garman:我认为这里有几个方面。第一,我们对这次合作非常兴奋,我也认为它会对很多创业公司产生非常重要的意义。但即便在今天,如果你去和创业公司聊,大多数正在扩张的创业公司仍然是在AWS上扩张,这背后有很多原因。规模在那里,可用性在那里,安全性在那里,可靠性在那里,其他ISV的合作伙伴生态在AWS上,客户也在AWS上。

主持人:(笑)不管愿不愿意,大家都用过AWS控制台,所以他们也习惯了。

Matt Garman:而且我们会帮助他们。我们花了大量时间赋能创业公司,不只是给credits,还包括建议他们如何搭建系统、如何思考go-to-market,以及很多类似的事情。我认为很多创业公司都非常认可这些。我们投入了大量时间和精力来确保这一点,因为我们真的认为,创业公司是AWS的生命线。从一开始就是这样,正如Sam刚才所说,今天依然如此。我现在仍然每个季度都会去硅谷或其他地方,直接和创业公司见面,听他们在做什么,确认我们正在构建的东西是否真的能满足他们的需求。

所以,今天争夺创业公司注意力的竞争,确实比20年前更多了。但这件事对我们来说仍然和过去一样重要。我们投入大量时间,确保自己能够满足这些创业公司的需求。

主持人:可以这么说吗?那些直接基于OpenAI API构建产品的人,而不是使用Azure版本OpenAI服务的人,更可能采用这样一种技术栈:常规计算放在AWS上,AI部分使用OpenAI?

Matt Garman:我认为这是今天很多创业公司非常常见的一种模式,完全是这样。

Bedrock Managed Agents:把AI Agent带进企业工作流
主持人:这就把我们带到了今天的公告:由OpenAI提供支持的Bedrock Managed Agents。我想我没说错。按照我的理解,这个产品的卖点并不只是OpenAI模型可以在AWS中使用——我认为这应该还不被允许——而是OpenAI的前沿模型被封装进了一个AWS原生的agent runtime中,里面包括身份、权限状态、日志、治理和部署。Sam,这样表述准确吗?

Sam Altman:是的,概括得挺好。

主持人:谢谢。那这到底是什么?现在请用大白话解释一下。

Sam Altman:我认为AI的下一阶段,将从「你给agent一些文本,然后拿回更多文本」,甚至从「你给它一堆代码,然后拿回更多代码」,进入到一个新阶段:这些agents会在公司内部运行,去完成各种不同类型的工作。

「虚拟同事」是我听过的所有描述里最不差的一个说法,但还没有人真正找到最准确的语言来描述它。我们正在共同打造一个新产品,帮助那些想要构建这类有状态agents的公司,把它们真正做出来,并且让它们可以被使用。再强调一次,我认为我们现在还不知道世界最终会如何谈论这些agents、如何使用它们。但如果你看看Codex正在发生什么,我认为那就是一个很好的例子,可以让我们看到这一切将走向哪里。

主持人:要让AI agent真正跑起来,光有模型还不够。它还需要一整套配套系统:运行环境、可调用的工具、任务状态、记忆、权限管理,以及效果评估。你刚才特别提到「状态」这个词。那这些模型之外的基础设施,对agent能否真正工作到底有多关键?

Sam Altman:它的重要性怎么强调都不为过。我现在已经不再把配套系统(Harness)和模型看作两个完全可以分开的东西。以我自己的使用体验来说,当我在Codex里启动一个任务,它为我完成了一件很惊艳的事情时,我非常清楚的一点是:我并不总是知道这其中有多少功劳应该归于……

主持人:是模型很强,还是配套系统(Harness)很强?

Sam Altman:对,正是这样。

主持人:那配套系统(Harness)在多大程度上是和模型一起开发的?这种整合发生在哪里?是在post-training里?是在prompt里?到底是什么让这种整合奏效?

Sam Altman:两者都有。它其实不太属于pre-training过程的一部分。但我会说,这里有一个更有意思的现象:过去我们已经多次看到,一些我们原本以为非常可以分开的东西,会越来越深地被烘焙进系统之中。

比如我们最初理解tool-calling的方式。现在它已经是我们使用这些模型的关键部分,但最开始,我们并没有认为它需要被深度整合进训练过程。随着时间推移,我们在这方面做得越来越多。

我也怀疑,模型和配套系统(Harness)会随着时间推移越来越融合。进一步说,我也预期pre-training和post-training最终也会随着时间推移更加融合。这句话说出来很像陈词滥调,但我还是要说,因为我认为它非常、非常真实:我们在整个范式里仍然处在非常早期的阶段。这个行业真正成熟的程度,大概还相当于Homebrew Computer Club那个时代。

主持人:这也是为什么我觉得这件事很有意思。我几周前写过,在任何价值链中,最终都会出现一个整合点,那个点非常关键,因为两个部分必须结合在一起,才能让事情运作起来。随着时间推移,很多价值显然会在那个地方沉淀下来。我当时的判断是,配套系统(Harness)与模型的整合就是这个关键点。这当然符合你的利益,但听起来你也同意这个判断。

Sam Altman:这确实符合我的利益,我也确实同意。但我还会说得更宽一点:真正重要的是,你在Codex里输入你想要发生的事情,然后它真的发生了。

主持人:你并不关心实现细节。

Sam Altman:我们在摸索这些事情的过程中,已经有太多这样的例子:有些事情一开始必须在system prompt层面解决,后来就不需要了。这里的总体观察是,随着模型变得更聪明,你就有更大的灵活性,让它们按照你想要的方式行事。这听起来像是一句显而易见的话,但它确实是……

主持人:让一个10岁小孩做事,比让一个5岁小孩做事更容易。

Sam Altman:当我回想GPT-3时代,我们为了从这些模型里榨出一点点实用性所必须做的事情,再看看现在,你根本不需要那样做了,因为模型当然已经能理解,并且开箱即用地把事情做好。这个趋势可能还会继续走得更远。

Matt Garman:我想补充一点。我完全同意Sam的说法。而且当你和客户交流时,他们其实很清楚自己到底希望这些系统做什么。在我们这次共同合作之前,客户某种程度上是被迫自己把这些东西拼起来。他们希望这些模型和agents能够记住某些东西,能够良好协作,能够整合进他们现有的系统。而且这不只是第三方工具的问题,也包括他们自己的工具。他们希望这些agents能了解他们自己的数据、自己的应用,以及自己的运行环境。而今天,至少目前来说,所有这些整合工作都需要每个客户自己完成。

所以,我们这次共同合作的一部分,就是一起构建一种新类型的产品,把这些东西更紧密地放在一起,让客户能够更容易地完成他们想做的事情。比如,身份能力已经内置进产品里;连接数据库并完成认证的能力,也会在你的AWS VPC,也就是Virtual Private Cloud里完成。如果只是OpenAI API在一边、AWS在另一边,这些事情理论上也可以做到。但通过共同构建这个东西,我们让客户更容易、更快地实现价值,并且在他们自己的企业环境中完成他们想完成的事情。

主持人:所以你的意思是,在一个通用配套系统(Harness)里也可以构建一个可运行的agent,只是困难得多?你们是在让它变得更容易?还是说,如果这些东西没有绑在一起,有些事情其实根本做不了?

Sam Altman:回到你之前的类比,在AWS出现之前,如果你愿意站在机房隔间里,买一堆服务器,弄清楚怎么把它们连起来,再雇自己的网络工程师,你确实可以做很多事情。你可以让很多事情发生。然后突然之间,你只需要登录AWS控制台,点击一下「我需要另一个S3实例」之类的东西,你就能做更多事情,因为基础工作所需要的启动能量和工作量大幅下降了。

今天,你当然也可以用模型做很多事情。但每次我看到有人使用我们的模型,或者试图搭建Matt刚才说的那些工作流时,我都会很矛盾。一方面,我很高兴他们觉得这些模型很令人印象深刻,觉得这是一种魔法般的技术;另一方面,我也快要抓狂,因为他们为了让任何东西真正跑起来,经历了太多痛苦和折磨。

这不仅对构建这些产品的开发者成立。即便只是使用ChatGPT,我看到人们从这里复制粘贴到那里,试图组织一套复杂的prompt,我也知道这些都会消失,而这让我很兴奋。现在一切仍然太早期,也太糟糕了。

主持人:只要你别取消它和BBEdit的集成就行。那是我对ChatGPT app最喜欢的功能,没有之一。

注:BBEdit是macOS上一款老牌文本与代码编辑器。这里主持人是在半开玩笑地说,虽然未来AI agent会减少复制粘贴和手动操作,但他仍希望ChatGPT保留与本地编辑器联动的功能。

Sam Altman:好吧。

主持人:(笑)谢谢。

Sam Altman:第一,现在这些事情实在太难做了。我们认为,如果能让它变得容易得多,它会给开发者和企业带来更多价值。第二,有很多事情现在根本无法可靠地运行。我认为,通过我们这次共同合作,它不仅会是一个关于易用性的故事,不只是「不用再自己搭colo」之类的问题。我们还会一起摸索出很多新的东西,让人们能够构建出过去即便经历很多痛苦和折磨也无法做出来的产品和服务。

企业Agent真正难的,是权限、数据和安全
主持人:我之后还想回到「有什么东西可以被构建」这个点。但先快速回到Codex。Codex是配套系统(Harness)加模型,而且它在本地运行。为什么现在让agents在本地工作会更容易?

Sam Altman:其实我们一开始是让它在云端运行的。我认为最终你确实会希望它在云端运行。

主持人:当然。我是在顺着过渡到这个云端产品的路径来问。但你们为什么又回到本地?

Sam Altman:因为你的整个环境都在那里。你的电脑已经配置好了,你的数据也在那里,你不用去考虑太多事情。虽然这不是最终状态,但它就是更容易跑起来。

不过,进入一个agents真正在云端运行的世界,显然会很好。比如你有一个非常高强度的任务,或者你需要关掉电脑,或者别的情况,你可以把工作交给云端继续处理。这个方向显然会很棒。但短期内,我们能够提供的易用性,很明显还是使用用户本地环境更占优。

主持人:我有一种理解方式:过去的安全模型更像是「城堡与护城河」模式,而现在你们正在转向一种新的零信任安全模型,每个东西都要有合适的权限结构、认证机制,以及所有这些细节。对我来说,本地运行某种程度上像是一种自我施加的「城堡与护城河」:所有东西都在本地,我就假定它们都没问题,也很容易处理。

而我理解这个产品的一种方式是,要让所有这些部分在生产环境中真正运作起来,你不可能全都放在本地。你必须从一开始就在这个环境里运行。Matt,这种说法对你来说成立吗?

Matt Garman:我不认为有任何计算环境真正摆脱了客户端。本地运行确实有好处。你的大多数iPhone应用之所以也有本地组件,是有原因的,不管是连接性、延迟、本地计算,还是对文件和应用的访问。

本地客户端确实有它的特点。正如Sam所说,它简单,运行得很好,但它也是受限的,有边界。你无法扩展你的本地笔记本电脑,你有什么就是什么。一旦进入企业场景,比如两个人之间共享,事情就会变得更难;要思考权限、安全边界,也会变得更难。

所以这里有很多部分。我不会说本地环境是一件坏事,它只是另一种东西。我认为,最终你会希望在本地和云端之间建立桥梁。

主持人:这正是我的问题。云时代有container,帮助你把本地环境和生产环境拉近。但在agents这个场景里,听起来如果你要处理agents,就像你刚才说的,它像一个虚拟同事,或者类似的东西。如果它们有自己的身份、自己的权限以及所有这些东西,那么即便只是构建它们,你也需要处在最终部署它们时所在的那个正确环境里。在我看来似乎是这样。

Sam Altman:我认为这里还有太多东西需要弄清楚。举一个例子,如果你是一家公司的员工,当你使用某项服务时,你是否应该只有一个账户?然后你的agent是否也应该使用你的账户?还是说你的agent应该使用另一个账户,这样服务器才能分辨到底是谁?

主持人:或者,如果你想要很多agents呢?

Sam Altman:没错。我怀疑我们真正需要的东西,是某种我们还没有想清楚的东西。也许当Ben的agent以Ben的身份登录时,它使用Ben的账户,但会标记自己是一个agent,而不是真正的Ben。我们甚至还没有一个基础概念来思考这件事,但我们可能很快就必须弄清楚。

而我的感觉是,还会有

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场